Search (51 results, page 2 of 3)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Farthofer, E.: Einrichtung einer Literaturdatenbank mit Reference Manager an der Abteilung für Gefäß- und Leistungsbiologie der Naturwissenschaftlichen Fakultät der Paris-Lodron-Universität Salzburg (2004) 0.00
    0.0023128013 = product of:
      0.0046256026 = sum of:
        0.0046256026 = product of:
          0.009251205 = sum of:
            0.009251205 = weight(_text_:e in 4636) [ClassicSimilarity], result of:
              0.009251205 = score(doc=4636,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.19057012 = fieldWeight in 4636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4636)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Nicoletti, M.: Automatische Indexierung (2001) 0.00
    0.0023128013 = product of:
      0.0046256026 = sum of:
        0.0046256026 = product of:
          0.009251205 = sum of:
            0.009251205 = weight(_text_:e in 4326) [ClassicSimilarity], result of:
              0.009251205 = score(doc=4326,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.19057012 = fieldWeight in 4326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4326)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Inhalt: 1. Aufgabe - 2. Ermittlung von Mehrwortgruppen - 2.1 Definition - 3. Kennzeichnung der Mehrwortgruppen - 4. Grundformen - 5. Term- und Dokumenthäufigkeit --- Termgewichtung - 6. Steuerungsinstrument Schwellenwert - 7. Invertierter Index. Vgl. unter: http://www.grin.com/de/e-book/104966/automatische-indexierung.
  3. Kacmaz, E.: Konzeption und Erstellung eines Online-Nachschlagewerks für den Bereich Web Usability/Accessibility (2004) 0.00
    0.0015418675 = product of:
      0.003083735 = sum of:
        0.003083735 = product of:
          0.00616747 = sum of:
            0.00616747 = weight(_text_:e in 3699) [ClassicSimilarity], result of:
              0.00616747 = score(doc=3699,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.12704675 = fieldWeight in 3699, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3699)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  4. Kirk, J.: Theorising information use : managers and their work (2002) 0.00
    0.001349134 = product of:
      0.002698268 = sum of:
        0.002698268 = product of:
          0.005396536 = sum of:
            0.005396536 = weight(_text_:e in 560) [ClassicSimilarity], result of:
              0.005396536 = score(doc=560,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.1111659 = fieldWeight in 560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=560)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  5. Boutin, E.: ¬La recherche d'information sur Internet au prisme de la théorie des facettes (2008) 0.00
    0.001349134 = product of:
      0.002698268 = sum of:
        0.002698268 = product of:
          0.005396536 = sum of:
            0.005396536 = weight(_text_:e in 2800) [ClassicSimilarity], result of:
              0.005396536 = score(doc=2800,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.1111659 = fieldWeight in 2800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2800)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.00
    0.0012928954 = product of:
      0.0025857908 = sum of:
        0.0025857908 = product of:
          0.0051715816 = sum of:
            0.0051715816 = weight(_text_:e in 585) [ClassicSimilarity], result of:
              0.0051715816 = score(doc=585,freq=10.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.10653195 = fieldWeight in 585, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  7. Pfeffer, J.: Online-Tutorials an deutschen Universitäts- und Hochschulbibliotheken : Verbreitung, Typologie und Analyse am Beispiel von LOTSE, DISCUS und BibTutor (2005) 0.00
    0.0011564007 = product of:
      0.0023128013 = sum of:
        0.0023128013 = product of:
          0.0046256026 = sum of:
            0.0046256026 = weight(_text_:e in 4837) [ClassicSimilarity], result of:
              0.0046256026 = score(doc=4837,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.09528506 = fieldWeight in 4837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4837)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Masterarbeit befasst sich mit einer besonderen Form der Vermittlung von Informationskompetenz: dem bibliothekarischen Online-Tutorial. Nach einer Einführung in das Thema Informationskompetenz bzw. Vermittlung von Informationskompetenz wird versucht, vor dem Hintergrund des übergeordneten Themas E-Learning eine Typologie des Online-Tutorials zu erstellen und einen quantitativen Überblick über den Einsatz von Tutorials an deutschen Hochschulbibliotheken zu geben. Aufbauend auf der Zusammenstellung eines Katalogs von Analyse- und Bewertungskriterien für Online-Tutorials werden drei ausgewählte Tutorials, die als besonders zukunftsträchtig und vorbildlich gelten können, einer bewertenden Analyse unterzogen. Die Master's Thesis zeigt, dass Online-Tutorials potenziell eine effiziente und effektive Form der Vermittlung von Informationskompetenz darstellen, auch wenn sie den Auskunftsbibliothekar oder den "teaching librarian" nie vollständig ersetzen können. Außerdem wird deutlich, dass sich trotz einiger herausragender Beispiele das deutsche Hochschulbibliothekswesen nur zögerlich des Online-Tutorials annimmt, wobei die Scheu vor dem ggf. beträchtlichen Entwicklungsaufwand und mangelnde Kooperation die Haupthindernisse für eine flächendeckende Verbreitung sein dürften.
  8. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.00
    0.0011564007 = product of:
      0.0023128013 = sum of:
        0.0023128013 = product of:
          0.0046256026 = sum of:
            0.0046256026 = weight(_text_:e in 4972) [ClassicSimilarity], result of:
              0.0046256026 = score(doc=4972,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.09528506 = fieldWeight in 4972, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4972)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  9. Nitzschner, H.: Konzeption und Entwicklung eines Online-Tutorials zur Verbesserung der Informationskompetenz von Studierenden der Elektrotechnik/Informationstechnik (2004) 0.00
    0.0011564007 = product of:
      0.0023128013 = sum of:
        0.0023128013 = product of:
          0.0046256026 = sum of:
            0.0046256026 = weight(_text_:e in 728) [ClassicSimilarity], result of:
              0.0046256026 = score(doc=728,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.09528506 = fieldWeight in 728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=728)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Verschiedene Studien belegen, dass vor allem Studierende oft keine ausreichenden Kennt-nisse, Fähigkeiten und Fertigkeiten besitzen, um das zunehmende Angebot elektronischer Informationsressourcen zu überschauen und effektiv zu nutzen. Besonders im Bereich der wissenschaftlichen Bibliotheken werden deshalb zahlreiche Schulungsveranstaltungen zur Verbesserung der Informationskompetenz durchgeführt. Um den veränderten Bedürfnissen der Nutzer nach einer größeren Flexibilität hinsichtlich ihrer Lern- und Arbeitsorganisation gerecht zu werden, bedarf es der Schaffung zusätzlicher, zeit- und ortsunabhängiger Schu-lungsangebote. In der vorliegenden Arbeit werden die entscheidenden Faktoren für einen erfolgreichen Einsatz von E-Learning-Anwendungen benannt und unter Berücksichtigung dieser Kriterien ein Online-Tutorial zur Recherche in den Fachdatenbanken der Elektro-technik, Elektronik und Nachrichtentechnik an der SLUB Dresden konzipiert. Der Pla-nungsphase schloss sich die technische Umsetzung an.
  10. Kreutzkam, E.: Neue Wege in alten Online-Katalogen : Catalog Enrichment als Methode der Sacherschließung? ; Stand, Entwicklung und Umsetzung in Bibliotheken Deutschlands (2007) 0.00
    0.0011564007 = product of:
      0.0023128013 = sum of:
        0.0023128013 = product of:
          0.0046256026 = sum of:
            0.0046256026 = weight(_text_:e in 4650) [ClassicSimilarity], result of:
              0.0046256026 = score(doc=4650,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.09528506 = fieldWeight in 4650, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4650)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  11. Smolak, E.: ¬"Die Bibliothek als Ort des Wissens - Mythos einer Metapher" (2009) 0.00
    0.0011564007 = product of:
      0.0023128013 = sum of:
        0.0023128013 = product of:
          0.0046256026 = sum of:
            0.0046256026 = weight(_text_:e in 1458) [ClassicSimilarity], result of:
              0.0046256026 = score(doc=1458,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.09528506 = fieldWeight in 1458, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1458)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  12. Eckert, K.: Thesaurus analysis and visualization in semantic search applications (2007) 0.00
    9.6366723E-4 = product of:
      0.0019273345 = sum of:
        0.0019273345 = product of:
          0.003854669 = sum of:
            0.003854669 = weight(_text_:e in 3222) [ClassicSimilarity], result of:
              0.003854669 = score(doc=3222,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.07940422 = fieldWeight in 3222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3222)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  13. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.00
    9.6366723E-4 = product of:
      0.0019273345 = sum of:
        0.0019273345 = product of:
          0.003854669 = sum of:
            0.003854669 = weight(_text_:e in 318) [ClassicSimilarity], result of:
              0.003854669 = score(doc=318,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.07940422 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  14. Carlin, S.A.: Schlagwortvergabe durch Nutzende (Tagging) als Hilfsmittel zur Suche im Web : Ansatz, Modelle, Realisierungen (2006) 0.00
    9.6366723E-4 = product of:
      0.0019273345 = sum of:
        0.0019273345 = product of:
          0.003854669 = sum of:
            0.003854669 = weight(_text_:e in 2476) [ClassicSimilarity], result of:
              0.003854669 = score(doc=2476,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.07940422 = fieldWeight in 2476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2476)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Nach dem zu Beginn der Ära des World Wide Web von Hand gepflegte Linklisten und -Verzeichnisse und an Freunde und Kollegen per E-Mail verschickte Links genügten, um die Informationen zu finden, nach denen man suchte, waren schon bald Volltextsuchmaschinen und halbautomatisch betriebene Kataloge notwendig, um den mehr und mehr anschwellenden Informationsfluten des Web Herr zu werden. Heute bereits sind diese Dämme gebrochen und viele Millionen Websites halten Billionen an Einzelseiten mit Informationen vor, von Datenbanken und anderweitig versteckten Informationen ganz zu schweigen. Mit Volltextsuchmaschinen erreicht man bei dieser Masse keine befriedigenden Ergebnisse mehr. Entweder man erzeugt lange Suchterme mit vielen Ausschließungen und ebenso vielen nicht-exklusiven ODER-Verknüpfungen um verschiedene Schreibweisen für den gleichen Term abzudecken oder man wählt von vornherein die Daten-Quelle, an die man seine Fragen stellt, genau aus. Doch oft bleiben nur klassische Web-Suchmaschinen übrig, zumal wenn der Fragende kein Informationsspezialist mit Kenntnissen von Spezialdatenbanken ist, sondern, von dieser Warte aus gesehenen, ein Laie. Und nicht nur im Web selbst, auch in unternehmensinternen Intranets steht man vor diesem Problem. Tausende von indizierten Dokumente mögen ein Eckdatum sein, nach dem sich der Erfolg der Einführung eines Intranets bemessen lässt, aber eine Aussage über die Nützlichkeit ist damit nicht getroffen. Und die bleibt meist hinter den Erwartungen zurück, vor allem bei denen Mitarbeitern, die tatsächlich mit dem Intranet arbeiten müssen. Entscheidend ist für die Informationsauffindung in Inter- und Intranet eine einfach zu nutzende und leicht anpassbare Möglichkeit, neue interessante Inhalte zu entdecken. Mit Tags steht eine mögliche Lösung bereit.
  15. Chen, X.: Indexing consistency between online catalogues (2008) 0.00
    9.6366723E-4 = product of:
      0.0019273345 = sum of:
        0.0019273345 = product of:
          0.003854669 = sum of:
            0.003854669 = weight(_text_:e in 2209) [ClassicSimilarity], result of:
              0.003854669 = score(doc=2209,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.07940422 = fieldWeight in 2209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2209)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  16. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.00
    9.539819E-4 = product of:
      0.0019079638 = sum of:
        0.0019079638 = product of:
          0.0038159275 = sum of:
            0.0038159275 = weight(_text_:e in 1703) [ClassicSimilarity], result of:
              0.0038159275 = score(doc=1703,freq=4.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.078606166 = fieldWeight in 1703, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
    Language
    e
  17. Munzner, T.: Interactive visualization of large graphs and networks (2000) 0.00
    7.7093375E-4 = product of:
      0.0015418675 = sum of:
        0.0015418675 = product of:
          0.003083735 = sum of:
            0.003083735 = weight(_text_:e in 4746) [ClassicSimilarity], result of:
              0.003083735 = score(doc=4746,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.063523374 = fieldWeight in 4746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4746)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  18. Strong, R.W.: Undergraduates' information differentiation behaviors in a research process : a grounded theory approach (2005) 0.00
    7.7093375E-4 = product of:
      0.0015418675 = sum of:
        0.0015418675 = product of:
          0.003083735 = sum of:
            0.003083735 = weight(_text_:e in 5985) [ClassicSimilarity], result of:
              0.003083735 = score(doc=5985,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.063523374 = fieldWeight in 5985, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5985)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Language
    e
  19. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.00
    7.7093375E-4 = product of:
      0.0015418675 = sum of:
        0.0015418675 = product of:
          0.003083735 = sum of:
            0.003083735 = weight(_text_:e in 548) [ClassicSimilarity], result of:
              0.003083735 = score(doc=548,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.063523374 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  20. Ackermann, J.: Knuth-Morris-Pratt (2005) 0.00
    7.7093375E-4 = product of:
      0.0015418675 = sum of:
        0.0015418675 = product of:
          0.003083735 = sum of:
            0.003083735 = weight(_text_:e in 865) [ClassicSimilarity], result of:
              0.003083735 = score(doc=865,freq=2.0), product of:
                0.048544887 = queryWeight, product of:
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03377341 = queryNorm
                0.063523374 = fieldWeight in 865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.43737 = idf(docFreq=28552, maxDocs=44218)
                  0.03125 = fieldNorm(doc=865)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.

Languages

  • d 30
  • e 19
  • f 1
  • More… Less…

Types