Search (35 results, page 2 of 2)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.007890998 = product of:
      0.015781997 = sum of:
        0.015781997 = product of:
          0.031563994 = sum of:
            0.031563994 = weight(_text_:b in 4283) [ClassicSimilarity], result of:
              0.031563994 = score(doc=4283,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19572285 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  2. Kaminski, B.: Geborgenheit und Selbstwertgefühl : eine Untersuchung auf der Grundlage der Forschungen von Otto Friedrich Bollnow in "Das Wesen der Stimmungen" und in "Neue Geborgenheit" sowie der "Analytik des Daseins" von Martin Heidegger in "Sein und Zeit" (2003) 0.01
    0.007890998 = product of:
      0.015781997 = sum of:
        0.015781997 = product of:
          0.031563994 = sum of:
            0.031563994 = weight(_text_:b in 3569) [ClassicSimilarity], result of:
              0.031563994 = score(doc=3569,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19572285 = fieldWeight in 3569, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3569)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.01
    0.0077088396 = product of:
      0.015417679 = sum of:
        0.015417679 = product of:
          0.030835358 = sum of:
            0.030835358 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.030835358 = score(doc=1482,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.2005 18:25:26
  4. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.01
    0.0077088396 = product of:
      0.015417679 = sum of:
        0.015417679 = product of:
          0.030835358 = sum of:
            0.030835358 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.030835358 = score(doc=2460,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  5. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.01
    0.0077088396 = product of:
      0.015417679 = sum of:
        0.015417679 = product of:
          0.030835358 = sum of:
            0.030835358 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.030835358 = score(doc=4333,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    22 S
  6. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.01
    0.0077088396 = product of:
      0.015417679 = sum of:
        0.015417679 = product of:
          0.030835358 = sum of:
            0.030835358 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.030835358 = score(doc=867,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    22 S
  7. Makewita, S.M.: Investigating the generic information-seeking function of organisational decision-makers : perspectives on improving organisational information systems (2002) 0.01
    0.0077088396 = product of:
      0.015417679 = sum of:
        0.015417679 = product of:
          0.030835358 = sum of:
            0.030835358 = weight(_text_:22 in 642) [ClassicSimilarity], result of:
              0.030835358 = score(doc=642,freq=2.0), product of:
                0.15939656 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045518078 = queryNorm
                0.19345059 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=642)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 7.2022 12:16:58
  8. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.01
    0.0066957343 = product of:
      0.013391469 = sum of:
        0.013391469 = product of:
          0.026782937 = sum of:
            0.026782937 = weight(_text_:b in 585) [ClassicSimilarity], result of:
              0.026782937 = score(doc=585,freq=4.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.16607635 = fieldWeight in 585, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  9. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.01
    0.0063127987 = product of:
      0.012625597 = sum of:
        0.012625597 = product of:
          0.025251195 = sum of:
            0.025251195 = weight(_text_:b in 973) [ClassicSimilarity], result of:
              0.025251195 = score(doc=973,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.15657827 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.03125 = fieldNorm(doc=973)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  10. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.01
    0.0063127987 = product of:
      0.012625597 = sum of:
        0.012625597 = product of:
          0.025251195 = sum of:
            0.025251195 = weight(_text_:b in 2442) [ClassicSimilarity], result of:
              0.025251195 = score(doc=2442,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.15657827 = fieldWeight in 2442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  11. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.01
    0.0063127987 = product of:
      0.012625597 = sum of:
        0.012625597 = product of:
          0.025251195 = sum of:
            0.025251195 = weight(_text_:b in 548) [ClassicSimilarity], result of:
              0.025251195 = score(doc=548,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.15657827 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  12. Poser, M.: Analyse und Bewertung ausgewählter Funktionen von ALEPH-Katalogen in Bezug auf Anforderungen und Erwartungen aus Benutzersicht (2008) 0.01
    0.0063127987 = product of:
      0.012625597 = sum of:
        0.012625597 = product of:
          0.025251195 = sum of:
            0.025251195 = weight(_text_:b in 3269) [ClassicSimilarity], result of:
              0.025251195 = score(doc=3269,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.15657827 = fieldWeight in 3269, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3269)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Arts (B. A.) im Studiengang Bibliotheks- und Informationswissenschaft Philosophische Fakultät I. Vgl. unter: http://www.agi-imc.de/internet.nsf/26efb65f701b0871c125751a00413614/fc471b3b08c89850c125788e004b5270/$FILE/Myriam_Poser.pdf.
  13. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.01
    0.005523699 = product of:
      0.011047398 = sum of:
        0.011047398 = product of:
          0.022094795 = sum of:
            0.022094795 = weight(_text_:b in 4495) [ClassicSimilarity], result of:
              0.022094795 = score(doc=4495,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.13700598 = fieldWeight in 4495, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4495)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
  14. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.00
    0.003945499 = product of:
      0.007890998 = sum of:
        0.007890998 = product of:
          0.015781997 = sum of:
            0.015781997 = weight(_text_:b in 2203) [ClassicSimilarity], result of:
              0.015781997 = score(doc=2203,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.097861424 = fieldWeight in 2203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    - Retrievalmöglichkeiten - Ein Test der Retrievalmöglichkeiten von Zeitangaben in den Online-Katalogen der LoC, BnF und DDB zeigte, dass für ein optimales Suchergebnis viele Recherche-Schritte und Regelwerkskenntnisse notwendig sind, eine aus Nutzersicht unbefriedigende Bilanz. Zum Beispiel muss für Suchanfragen nach Jahreszahlen der Zeitraum genauso angegeben werden, wie es bei der Indexierung geschah, oder eine Suche mit Epochenbegriffen und zeitimmanenten Schlagwörtern erfordert die genaue Kenntnis der Ansetzungsregeln für solche Deskriptoren. Die angebotenen Schlagwortketten sind eine Suchhilfe, erlauben aber keine Sortierung nach der Zeitenabfolge. Der größte Mangel ist, dass alle Zeitcodierungen nur als Zeichen, nicht als Zahlen, erkennbar sind, sodass bei der Suche nur ein Zeichenabgleich erfolgt und keine Sortierung nach Zahlen möglich ist. Jutta Frommeyer stellt die Retrievalmöglichkeiten der drei genannten Bibliothekskataloge verschiedenen anderen Datenbanken gegenüber, die eine Suche nach Zeitangaben anbieten. Die Suchmöglichkeiten bei den Allgemeinenzyklopädien (»Encyclopedia Britannica«, »Brockhaus-Enzyklopädie«, »Encarta«) sind vielfältig und elaboriert. Zeitimmanente Begriffe sind chronologisch angeordnet und auch grafisch durch Zeitschienen dargestellt, von denen aus auf ein Jahr oder einen Zeitbegriff gesprungen werden kann. Die Datenbank »Historical abstracts« bietet den Zeitraum, der in einem Dokument behandelt wird, über eine spezielle Codierung an. Die »Jahresberichte für deutsche Geschichte« bieten für das Zeitretrieval eine Tabelle mit 14 verschiedenen Möglichkeiten; die weitere Differenzierung der Suchanfrage erfolgt hier durch andere Sacherschließungselemente wie eine ausgefeilte Klassifikation und eine Schlagwortliste. - Modell zum optimalen Zeitretrieval - Aufgrund ihrer Untersuchungen entwickelt die Autorin ein theoretisches Modell für ein optimales Zeitretrieval in allgemeinbibliografischen Datenbanken mit den drei Elementen Zeitcode, Chronikcode und Chroniknormdatei. Damit die Zeitcodierungen als Zahlen und nicht als Zeichen erkennbar sind, müssen sie in einem besonderen numerischen Feld (Zeitcode) abgelegt werden; mit der Möglichkeit, nach Zeiträumen zu suchen (Größer-, Kleiner- und Gleichoperatoren). Die Zeitspannen von Zeitbegriffen werden als Chronikcode in der gleichen Datenstruktur wie der Zeitcode bei den Normdatensätzen ergänzt. Für bestimmte Zeitbegriffe ist eine Normierung notwendig (z. B. Mittelalter). Bei kulturkreisabhängigen Zeitbegriffen kann die zeitliche Codierung verschieden aussehen. Die Chroniknormdatei soll die chronologische Relation der zeitimmanenten Begriffe darstellen und bei umfassenden Zeitspannen große Trefferzahlen vermeiden. Da zeitimmanente Begriffe über alle Sachgebiete streuen, muss für das Retrieval eine sachliche Einschränkung gegeben sein. Jutta Frommeyer schlägt dafür eine international angewandte Klassifikation vor. Die Autorin stellt ein Retrievalmodell dar, um das Zusammenwirken von Zeitcode,Chronikcode und Chroniknormdatei zu demonstrieren. Dabei hat sie sich an der heutigen Menü-Oberfläche für OPACs orientiert und ein neues Suchfeld »Zeitabschnitt« mit verschiedenen Unterteilungen eingeführt. Ihre Beispiele sind nachvollziehbar und verdeutlichen ihren Vorschlag. Die Umsetzung eines solchen Modells hat Auswirkungen auf die vorhandenen Datenstrukturen; auch wird eine Annäherung der Regeln für die Schlagwortvergabe nach RSWK, Rameau und LCSH notwendig sein, wenn so eine Suche international angeboten werden soll.
  15. Haslhofer, B.: ¬A Web-based mapping technique for establishing metadata interoperability (2008) 0.00
    0.003945499 = product of:
      0.007890998 = sum of:
        0.007890998 = product of:
          0.015781997 = sum of:
            0.015781997 = weight(_text_:b in 3173) [ClassicSimilarity], result of:
              0.015781997 = score(doc=3173,freq=2.0), product of:
                0.16126883 = queryWeight, product of:
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.045518078 = queryNorm
                0.097861424 = fieldWeight in 3173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.542962 = idf(docFreq=3476, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3173)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    

Languages

  • d 32
  • e 3