Search (19 results, page 1 of 1)

  • × type_ss:"x"
  • × year_i:[2000 TO 2010}
  1. Rösener, C.: ¬Die Stecknadel im Heuhaufen : Natürlichsprachlicher Zugang zu Volltextdatenbanken (2005) 0.07
    0.07292073 = product of:
      0.109381095 = sum of:
        0.06745599 = weight(_text_:neues in 548) [ClassicSimilarity], result of:
          0.06745599 = score(doc=548,freq=2.0), product of:
            0.27151895 = queryWeight, product of:
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.048299734 = queryNorm
            0.24843936 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.03125 = fieldNorm(doc=548)
        0.041925106 = product of:
          0.08385021 = sum of:
            0.08385021 = weight(_text_:lexikon in 548) [ClassicSimilarity], result of:
              0.08385021 = score(doc=548,freq=2.0), product of:
                0.30272058 = queryWeight, product of:
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.048299734 = queryNorm
                0.2769888 = fieldWeight in 548, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.03125 = fieldNorm(doc=548)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Möglichkeiten, die der heutigen Informations- und Wissensgesellschaft für die Beschaffung und den Austausch von Information zur Verfügung stehen, haben kurioserweise gleichzeitig ein immer akuter werdendes, neues Problem geschaffen: Es wird für jeden Einzelnen immer schwieriger, aus der gewaltigen Fülle der angebotenen Informationen die tatsächlich relevanten zu selektieren. Diese Arbeit untersucht die Möglichkeit, mit Hilfe von natürlichsprachlichen Schnittstellen den Zugang des Informationssuchenden zu Volltextdatenbanken zu verbessern. Dabei werden zunächst die wissenschaftlichen Fragestellungen ausführlich behandelt. Anschließend beschreibt der Autor verschiedene Lösungsansätze und stellt anhand einer natürlichsprachlichen Schnittstelle für den Brockhaus Multimedial 2004 deren erfolgreiche Implementierung vor
    Content
    5: Interaktion 5.1 Frage-Antwort- bzw. Dialogsysteme: Forschungen und Projekte 5.2 Darstellung und Visualisierung von Wissen 5.3 Das Dialogsystem im Rahmen des LeWi-Projektes 5.4 Ergebnisdarstellung und Antwortpräsentation im LeWi-Kontext 6: Testumgebungen und -ergebnisse 7: Ergebnisse und Ausblick 7.1 Ausgangssituation 7.2 Schlussfolgerungen 7.3 Ausblick Anhang A Auszüge aus der Grob- bzw. Feinklassifikation des BMM Anhang B MPRO - Formale Beschreibung der wichtigsten Merkmale ... Anhang C Fragentypologie mit Beispielsätzen (Auszug) Anhang D Semantische Merkmale im morphologischen Lexikon (Auszug) Anhang E Regelbeispiele für die Fragentypzuweisung Anhang F Aufstellung der möglichen Suchen im LeWi-Dialogmodul (Auszug) Anhang G Vollständiger Dialogbaum zu Beginn des Projektes Anhang H Statuszustände zur Ermittlung der Folgefragen (Auszug)
  2. Richter, S.: ¬Die formale Beschreibung von Dokumenten in Archiven und Bibliotheken : Perspektiven des Datenaustauschs (2004) 0.02
    0.02248533 = product of:
      0.06745599 = sum of:
        0.06745599 = weight(_text_:neues in 4982) [ClassicSimilarity], result of:
          0.06745599 = score(doc=4982,freq=2.0), product of:
            0.27151895 = queryWeight, product of:
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.048299734 = queryNorm
            0.24843936 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Datenrecherche und der Zugriff auf Informationen wurde in den letzten Jahren durch Angebote im Internet erleichtert. Während im Bibliothekswesen bereits seit Jahrzehnten Erfahrungen durch die Verbundkatalogisierung im Bereich des Datenaustauschs gesammelt wurden, wurde eine kooperative Datenhaltung zwischen Archiven erst in den letzten Jahren begonnen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Daten aus Archiven und Bibliotheken in gemeinsamen Datenpools angeboten werden können: Sind die Inhalte der verschiedenen Datenkategorien ähnlich genug, um sie zusammenfassen zu können? Welche Standards liegen den Daten zugrunde? Um diese Fragen beantworten zu können, werden zunächst die verschiedenen Regelwerke des Archivs- und Bibliothekswesens zur archivischen Verzeichnung bzw. der bibliographischen Beschreibung untersucht und anschließend die darauf fußenden Austauschformate. Folgende (Regel-) Werke werden in die Analyse integiert: Papritz: Die archivische Titelaufnahme bei Sachakten, die Ordnungs- und Verzeichnungsgrundsätze für die staatlichen Archive der Deutschen Demokratischen Republik (OVG-DDR), Internationale Grundsätze für die archivische Verzeichnung (ISAD(G)), das Handbuch für Wirtschaftsarchive, Praktische Archivkunde, die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), die Anglo-American Cataloguing Rules (AACR), General International Standard Bibliographic Description (ISBD(G)) und für den Bereich der Nachlasserschließung als Schnittstelle zwischen Archiven und Bibliotheken die Ordnungs- und Verzeichnungsgrundsätze [des Goethe- und Schiller-Archivs] (OVG-GSA), König: Verwaltung und wissenschaftliche Erschließung von Nachlässen in Literaturarchiven sowie die Regeln zur Erschließung von Nachlässen und Autographen (RNA). Von den Datenaustauschformaten werden Encoded Archival Description (EAD), Maschinelles Austauschformat für Bibliotheken (MAB) und Machine Readable Cataloguing (MARC) vorgestellt. Die Analyse zeigt, dass Daten aus Archiven und Bibliotheken in einer gemeinsamen Datenmenge zur Verfügung gestellt werden können, um sie für eine spartenübergreifende Recherche nutzbar zu machen. Es muss aber eingeräumt werden, dass im Austauschformat für ähnliche Beschreibungselemente nicht identische Kategorienummern verwendet werden können, da hierfür die Inhalte der Kategorien zu stark differieren. Aus diesem Grund kann das MAB-Format auch nicht ohne weiteres für archivische Elemente verwendet werden: Entweder müsste das bestehende MAB-Schema an die Belange des Archivwesens angepasst werden oder es müsste ein neues Austauschformat generiert werden, da auch das internationale EAD-Format nicht ohne Änderungen auf die deutsche Verzeichnungstradition abgebildet werden kann. Insbesondere wäre sowohl innerhalb der Sparten Archiv- und Bibliothekswesen als auch darüber hinaus eine tiefere Diskussion um verbindliche Regelwerke und Austauschformate zu empfehlen.
  3. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.019674666 = product of:
      0.059023995 = sum of:
        0.059023995 = weight(_text_:neues in 2490) [ClassicSimilarity], result of:
          0.059023995 = score(doc=2490,freq=2.0), product of:
            0.27151895 = queryWeight, product of:
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.048299734 = queryNorm
            0.21738444 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.33333334 = coord(1/3)
    
    Footnote
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  4. Polzer, J.: Deutsche Lexika im Wandel : Von der systematischen Enzyklopädie zum multimedialen Lexikon (2002) 0.02
    0.017468793 = product of:
      0.052406378 = sum of:
        0.052406378 = product of:
          0.104812756 = sum of:
            0.104812756 = weight(_text_:lexikon in 2172) [ClassicSimilarity], result of:
              0.104812756 = score(doc=2172,freq=2.0), product of:
                0.30272058 = queryWeight, product of:
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.048299734 = queryNorm
                0.346236 = fieldWeight in 2172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2172)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  5. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.02
    0.017047286 = product of:
      0.051141854 = sum of:
        0.051141854 = product of:
          0.15342556 = sum of:
            0.15342556 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.15342556 = score(doc=701,freq=2.0), product of:
                0.40948567 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.048299734 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  6. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.02
    0.015269211 = product of:
      0.04580763 = sum of:
        0.04580763 = product of:
          0.09161526 = sum of:
            0.09161526 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.09161526 = score(doc=4635,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    26.11.2005 18:39:22
  7. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.01
    0.014053333 = product of:
      0.042159997 = sum of:
        0.042159997 = weight(_text_:neues in 2203) [ClassicSimilarity], result of:
          0.042159997 = score(doc=2203,freq=2.0), product of:
            0.27151895 = queryWeight, product of:
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.048299734 = queryNorm
            0.1552746 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.621541 = idf(docFreq=434, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
      0.33333334 = coord(1/3)
    
    Footnote
    - Retrievalmöglichkeiten - Ein Test der Retrievalmöglichkeiten von Zeitangaben in den Online-Katalogen der LoC, BnF und DDB zeigte, dass für ein optimales Suchergebnis viele Recherche-Schritte und Regelwerkskenntnisse notwendig sind, eine aus Nutzersicht unbefriedigende Bilanz. Zum Beispiel muss für Suchanfragen nach Jahreszahlen der Zeitraum genauso angegeben werden, wie es bei der Indexierung geschah, oder eine Suche mit Epochenbegriffen und zeitimmanenten Schlagwörtern erfordert die genaue Kenntnis der Ansetzungsregeln für solche Deskriptoren. Die angebotenen Schlagwortketten sind eine Suchhilfe, erlauben aber keine Sortierung nach der Zeitenabfolge. Der größte Mangel ist, dass alle Zeitcodierungen nur als Zeichen, nicht als Zahlen, erkennbar sind, sodass bei der Suche nur ein Zeichenabgleich erfolgt und keine Sortierung nach Zahlen möglich ist. Jutta Frommeyer stellt die Retrievalmöglichkeiten der drei genannten Bibliothekskataloge verschiedenen anderen Datenbanken gegenüber, die eine Suche nach Zeitangaben anbieten. Die Suchmöglichkeiten bei den Allgemeinenzyklopädien (»Encyclopedia Britannica«, »Brockhaus-Enzyklopädie«, »Encarta«) sind vielfältig und elaboriert. Zeitimmanente Begriffe sind chronologisch angeordnet und auch grafisch durch Zeitschienen dargestellt, von denen aus auf ein Jahr oder einen Zeitbegriff gesprungen werden kann. Die Datenbank »Historical abstracts« bietet den Zeitraum, der in einem Dokument behandelt wird, über eine spezielle Codierung an. Die »Jahresberichte für deutsche Geschichte« bieten für das Zeitretrieval eine Tabelle mit 14 verschiedenen Möglichkeiten; die weitere Differenzierung der Suchanfrage erfolgt hier durch andere Sacherschließungselemente wie eine ausgefeilte Klassifikation und eine Schlagwortliste. - Modell zum optimalen Zeitretrieval - Aufgrund ihrer Untersuchungen entwickelt die Autorin ein theoretisches Modell für ein optimales Zeitretrieval in allgemeinbibliografischen Datenbanken mit den drei Elementen Zeitcode, Chronikcode und Chroniknormdatei. Damit die Zeitcodierungen als Zahlen und nicht als Zeichen erkennbar sind, müssen sie in einem besonderen numerischen Feld (Zeitcode) abgelegt werden; mit der Möglichkeit, nach Zeiträumen zu suchen (Größer-, Kleiner- und Gleichoperatoren). Die Zeitspannen von Zeitbegriffen werden als Chronikcode in der gleichen Datenstruktur wie der Zeitcode bei den Normdatensätzen ergänzt. Für bestimmte Zeitbegriffe ist eine Normierung notwendig (z. B. Mittelalter). Bei kulturkreisabhängigen Zeitbegriffen kann die zeitliche Codierung verschieden aussehen. Die Chroniknormdatei soll die chronologische Relation der zeitimmanenten Begriffe darstellen und bei umfassenden Zeitspannen große Trefferzahlen vermeiden. Da zeitimmanente Begriffe über alle Sachgebiete streuen, muss für das Retrieval eine sachliche Einschränkung gegeben sein. Jutta Frommeyer schlägt dafür eine international angewandte Klassifikation vor. Die Autorin stellt ein Retrievalmodell dar, um das Zusammenwirken von Zeitcode,Chronikcode und Chroniknormdatei zu demonstrieren. Dabei hat sie sich an der heutigen Menü-Oberfläche für OPACs orientiert und ein neues Suchfeld »Zeitabschnitt« mit verschiedenen Unterteilungen eingeführt. Ihre Beispiele sind nachvollziehbar und verdeutlichen ihren Vorschlag. Die Umsetzung eines solchen Modells hat Auswirkungen auf die vorhandenen Datenstrukturen; auch wird eine Annäherung der Regeln für die Schlagwortvergabe nach RSWK, Rameau und LCSH notwendig sein, wenn so eine Suche international angeboten werden soll.
  8. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.01
    0.013087894 = product of:
      0.03926368 = sum of:
        0.03926368 = product of:
          0.07852736 = sum of:
            0.07852736 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.07852736 = score(doc=4865,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:41:59
  9. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.010906579 = product of:
      0.032719735 = sum of:
        0.032719735 = product of:
          0.06543947 = sum of:
            0.06543947 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.06543947 = score(doc=3406,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    30. 5.2010 16:22:35
  10. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.01
    0.0104812775 = product of:
      0.03144383 = sum of:
        0.03144383 = product of:
          0.06288766 = sum of:
            0.06288766 = weight(_text_:lexikon in 585) [ClassicSimilarity], result of:
              0.06288766 = score(doc=585,freq=2.0), product of:
                0.30272058 = queryWeight, product of:
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.048299734 = queryNorm
                0.2077416 = fieldWeight in 585, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.2675414 = idf(docFreq=227, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  11. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.009254539 = product of:
      0.027763618 = sum of:
        0.027763618 = product of:
          0.055527236 = sum of:
            0.055527236 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.055527236 = score(doc=4441,freq=4.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
  12. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.01
    0.008725263 = product of:
      0.026175788 = sum of:
        0.026175788 = product of:
          0.052351575 = sum of:
            0.052351575 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.052351575 = score(doc=1409,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
  13. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.006543947 = product of:
      0.01963184 = sum of:
        0.01963184 = product of:
          0.03926368 = sum of:
            0.03926368 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.03926368 = score(doc=1746,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2015 9:17:30
  14. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.032719735 = score(doc=1482,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 5.2005 18:25:26
  15. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.032719735 = score(doc=2460,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  16. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.032719735 = score(doc=4333,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Pages
    22 S
  17. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.032719735 = score(doc=867,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Pages
    22 S
  18. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
              0.032719735 = score(doc=1670,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 1670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1670)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    26. 9.2006 21:00:22
  19. Makewita, S.M.: Investigating the generic information-seeking function of organisational decision-makers : perspectives on improving organisational information systems (2002) 0.01
    0.0054532895 = product of:
      0.016359868 = sum of:
        0.016359868 = product of:
          0.032719735 = sum of:
            0.032719735 = weight(_text_:22 in 642) [ClassicSimilarity], result of:
              0.032719735 = score(doc=642,freq=2.0), product of:
                0.16913743 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.048299734 = queryNorm
                0.19345059 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=642)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 7.2022 12:16:58