Search (56 results, page 2 of 3)

  • × theme_ss:"Automatisches Indexieren"
  • × year_i:[2000 TO 2010}
  1. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.03
    0.032092806 = product of:
      0.120348014 = sum of:
        0.011739839 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.011739839 = score(doc=2377,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.011739839 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.011739839 = score(doc=2377,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.020654516 = weight(_text_:der in 2377) [ClassicSimilarity], result of:
          0.020654516 = score(doc=2377,freq=6.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.42746788 = fieldWeight in 2377, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.011739839 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.011739839 = score(doc=2377,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.011739839 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.011739839 = score(doc=2377,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.018058084 = weight(_text_:20 in 2377) [ClassicSimilarity], result of:
          0.018058084 = score(doc=2377,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.30370468 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.011739839 = weight(_text_:und in 2377) [ClassicSimilarity], result of:
          0.011739839 = score(doc=2377,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.24487628 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.02293622 = weight(_text_:21 in 2377) [ClassicSimilarity], result of:
          0.02293622 = score(doc=2377,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.3422761 = fieldWeight in 2377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
      0.26666668 = coord(8/30)
    
    Abstract
    Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand des Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg. Günter Peters berichtete unter anderem über das System DocCat, dem er eine erhebliche Kompetenz attestierte.
    Date
    21. 6.2004 14:13:20
    Footnote
    Beitrag anläßlich der 27. Jahrestagung Gesellschaft für Klassifikation e.V.
  2. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.03
    0.031556785 = product of:
      0.13524336 = sum of:
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.019667033 = weight(_text_:der in 6078) [ClassicSimilarity], result of:
          0.019667033 = score(doc=6078,freq=34.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40703082 = fieldWeight in 6078, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.013230776 = weight(_text_:im in 6078) [ClassicSimilarity], result of:
          0.013230776 = score(doc=6078,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.21638076 = fieldWeight in 6078, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
        0.020469107 = weight(_text_:und in 6078) [ClassicSimilarity], result of:
          0.020469107 = score(doc=6078,freq=38.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.42695636 = fieldWeight in 6078, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6078)
      0.23333333 = coord(7/30)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  3. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.03
    0.031196646 = product of:
      0.116987415 = sum of:
        0.013627824 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.013627824 = score(doc=494,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.013627824 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.013627824 = score(doc=494,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.022476126 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.022476126 = score(doc=494,freq=58.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.013627824 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.013627824 = score(doc=494,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.013627824 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.013627824 = score(doc=494,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.020051828 = weight(_text_:im in 494) [ClassicSimilarity], result of:
          0.020051828 = score(doc=494,freq=18.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.32793462 = fieldWeight in 494, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.0063203294 = weight(_text_:20 in 494) [ClassicSimilarity], result of:
          0.0063203294 = score(doc=494,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.106296636 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.013627824 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.013627824 = score(doc=494,freq=22.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.26666668 = coord(8/30)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Date
    15. 8.2007 20:55:36
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  4. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.03
    0.030523214 = product of:
      0.13081378 = sum of:
        0.01818728 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.01818728 = score(doc=2827,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.01818728 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.01818728 = score(doc=2827,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.019667033 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.019667033 = score(doc=2827,freq=34.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.01818728 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.01818728 = score(doc=2827,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.01818728 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.01818728 = score(doc=2827,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.020210344 = weight(_text_:im in 2827) [ClassicSimilarity], result of:
          0.020210344 = score(doc=2827,freq=14.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.33052707 = fieldWeight in 2827, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.01818728 = weight(_text_:und in 2827) [ClassicSimilarity], result of:
          0.01818728 = score(doc=2827,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3793607 = fieldWeight in 2827, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
      0.23333333 = coord(7/30)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Content
    Vgl. auch: http://munin.bui.haw-hamburg.de/amoll/freitext/index.php (Freitextindexierung ohne Bearbeitung der Indexate) http://munin.bui.haw-hamburg.de/amoll/stemming/index.pbp (Stemming) http://munin.bui.haw-hamburg.de/amoll/woerterbuch/index.php (wörterbuchbasierte Indexierung)
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information
    Imprint
    Hamburg : HAW Hamburg, Fachbereich Bibliothek und Information
  5. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.03
    0.03001355 = product of:
      0.11255081 = sum of:
        0.014849852 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.014849852 = score(doc=861,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.014849852 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.014849852 = score(doc=861,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.017847542 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.017847542 = score(doc=861,freq=28.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.014849852 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.014849852 = score(doc=861,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.014849852 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.014849852 = score(doc=861,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.013230776 = weight(_text_:im in 861) [ClassicSimilarity], result of:
          0.013230776 = score(doc=861,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.21638076 = fieldWeight in 861, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.0072232336 = weight(_text_:20 in 861) [ClassicSimilarity], result of:
          0.0072232336 = score(doc=861,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.12148187 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.014849852 = weight(_text_:und in 861) [ClassicSimilarity], result of:
          0.014849852 = score(doc=861,freq=20.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3097467 = fieldWeight in 861, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.26666668 = coord(8/30)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
    Date
    30.10.2005 20:14:41
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  6. Zimmermann, H.H.: Möglichkeiten einer computergestützen Sacherschließung (2003) 0.03
    0.028998913 = product of:
      0.10874592 = sum of:
        0.013282111 = weight(_text_:und in 2375) [ClassicSimilarity], result of:
          0.013282111 = score(doc=2375,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27704588 = fieldWeight in 2375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.013282111 = weight(_text_:und in 2375) [ClassicSimilarity], result of:
          0.013282111 = score(doc=2375,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27704588 = fieldWeight in 2375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.009539912 = weight(_text_:der in 2375) [ClassicSimilarity], result of:
          0.009539912 = score(doc=2375,freq=2.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.19743896 = fieldWeight in 2375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.013282111 = weight(_text_:und in 2375) [ClassicSimilarity], result of:
          0.013282111 = score(doc=2375,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27704588 = fieldWeight in 2375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.013282111 = weight(_text_:und in 2375) [ClassicSimilarity], result of:
          0.013282111 = score(doc=2375,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27704588 = fieldWeight in 2375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.014446467 = weight(_text_:20 in 2375) [ClassicSimilarity], result of:
          0.014446467 = score(doc=2375,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.24296375 = fieldWeight in 2375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.013282111 = weight(_text_:und in 2375) [ClassicSimilarity], result of:
          0.013282111 = score(doc=2375,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27704588 = fieldWeight in 2375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
        0.018348975 = weight(_text_:21 in 2375) [ClassicSimilarity], result of:
          0.018348975 = score(doc=2375,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.27382088 = fieldWeight in 2375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.0625 = fieldNorm(doc=2375)
      0.26666668 = coord(8/30)
    
    Abstract
    Prof. Dr. Harald Zimmermann, Universität des Saarlandes, berichtete über zukunftsfähige Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen. Er erinnerte an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys. Dort lernt das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-487-07825-2).
    Date
    21. 6.2004 14:13:20
    Footnote
    Beitrag anläßlich der 27. Jahrestagung Gesellschaft für Klassifikation e.V.
  7. Schröther, C.: Automatische Indexierung, Kategorisierung und inhaltliche Erschließung von Textnachrichten (2003) 0.03
    0.028969508 = product of:
      0.12415503 = sum of:
        0.016435774 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.016435774 = score(doc=521,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.016435774 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.016435774 = score(doc=521,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.016694847 = weight(_text_:der in 521) [ClassicSimilarity], result of:
          0.016694847 = score(doc=521,freq=2.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.34551817 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.016435774 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.016435774 = score(doc=521,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.016435774 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.016435774 = score(doc=521,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.025281318 = weight(_text_:20 in 521) [ClassicSimilarity], result of:
          0.025281318 = score(doc=521,freq=2.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.42518654 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
        0.016435774 = weight(_text_:und in 521) [ClassicSimilarity], result of:
          0.016435774 = score(doc=521,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34282678 = fieldWeight in 521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=521)
      0.23333333 = coord(7/30)
    
    Date
    20.10.2003 12:15:20
    Footnote
    Magisterarbeit, Phil. Fak. der Rheinischen Friedrich-Wilhelms-Universität Bonn (Prof. Dr. W. Lenders)
  8. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.027842933 = product of:
      0.11932686 = sum of:
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.019775193 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.019775193 = score(doc=5863,freq=22.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.016538471 = weight(_text_:im in 5863) [ClassicSimilarity], result of:
          0.016538471 = score(doc=5863,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.27047595 = fieldWeight in 5863, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.01660264 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.01660264 = score(doc=5863,freq=16.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.23333333 = coord(7/30)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Hauer, M.: Digitalisierung von Aufsätzen und anderen Texten mit maschineller Inhaltserschließung am Beispiel der Vorarlberger Landesbibliothek Bregenz : Wissensressourcen zutage fördern (2003) 0.03
    0.026893497 = product of:
      0.115257844 = sum of:
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.013491474 = weight(_text_:der in 1498) [ClassicSimilarity], result of:
          0.013491474 = score(doc=1498,freq=4.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.27922085 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.02043039 = weight(_text_:20 in 1498) [ClassicSimilarity], result of:
          0.02043039 = score(doc=1498,freq=4.0), product of:
            0.059459355 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.021630857 = queryNorm
            0.34360263 = fieldWeight in 1498, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
        0.016267197 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.016267197 = score(doc=1498,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 1498, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1498)
      0.23333333 = coord(7/30)
    
    Abstract
    Durch die Nutzung des Internet wird sich die Erwartungshaltung der Bibliothekskundschaft nachhaltig verändern. Es ist absehbar, dass von den Bibliotheken künftig mehr gefordert wird, als die formale und inhaltliche Erschließung mithilfe tradierter Verfahren und Regelwerke wie RAK, AACR, Klassifikationen, Schlagwortnormdatei oder Fachthesauri.
    Date
    20. 9.1996 20:25:49
  10. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.03
    0.026196886 = product of:
      0.11227237 = sum of:
        0.014087806 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.014087806 = score(doc=1785,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014087806 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.014087806 = score(doc=1785,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014309869 = weight(_text_:der in 1785) [ClassicSimilarity], result of:
          0.014309869 = score(doc=1785,freq=2.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.29615843 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014087806 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.014087806 = score(doc=1785,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014087806 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.014087806 = score(doc=1785,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014087806 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.014087806 = score(doc=1785,freq=2.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.027523464 = weight(_text_:21 in 1785) [ClassicSimilarity], result of:
          0.027523464 = score(doc=1785,freq=2.0), product of:
            0.06701087 = queryWeight, product of:
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.021630857 = queryNorm
            0.41073132 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.0979297 = idf(docFreq=5425, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
      0.23333333 = coord(7/30)
    
    Date
    18. 8.2003 13:21:19
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  11. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.03
    0.025987687 = product of:
      0.1113758 = sum of:
        0.016931437 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.016931437 = score(doc=2543,freq=26.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.016931437 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.016931437 = score(doc=2543,freq=26.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.019079825 = weight(_text_:der in 2543) [ClassicSimilarity], result of:
          0.019079825 = score(doc=2543,freq=32.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.3948779 = fieldWeight in 2543, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.016931437 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.016931437 = score(doc=2543,freq=26.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.016931437 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.016931437 = score(doc=2543,freq=26.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.007638792 = weight(_text_:im in 2543) [ClassicSimilarity], result of:
          0.007638792 = score(doc=2543,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.12492748 = fieldWeight in 2543, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
        0.016931437 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.016931437 = score(doc=2543,freq=26.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.3531656 = fieldWeight in 2543, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2543)
      0.23333333 = coord(7/30)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
    Classification
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    RVK
    AN 95300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Automatisches Indexing (z.B. KWIC, KWOC)
    Series
    Materialien zur Information und Dokumentation; Bd.13
  12. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.03
    0.025864655 = product of:
      0.12932327 = sum of:
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.011924891 = weight(_text_:der in 3413) [ClassicSimilarity], result of:
          0.011924891 = score(doc=3413,freq=2.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.2467987 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
        0.023479678 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.023479678 = score(doc=3413,freq=8.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.48975256 = fieldWeight in 3413, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3413)
      0.2 = coord(6/30)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  13. Maas, H.-D.: Indexieren mit AUTINDEX (2006) 0.02
    0.024145342 = product of:
      0.10348004 = sum of:
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.014458163 = weight(_text_:der in 6077) [ClassicSimilarity], result of:
          0.014458163 = score(doc=6077,freq=24.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.29922754 = fieldWeight in 6077, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.009452523 = weight(_text_:im in 6077) [ClassicSimilarity], result of:
          0.009452523 = score(doc=6077,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.15458988 = fieldWeight in 6077, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
        0.01591387 = weight(_text_:und in 6077) [ClassicSimilarity], result of:
          0.01591387 = score(doc=6077,freq=30.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33194062 = fieldWeight in 6077, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=6077)
      0.23333333 = coord(7/30)
    
    Abstract
    Wenn man ein Computerprogramm besitzt, das einem zu fast jedem Textwort dessen grammatische Merkmale bestimmt und außerdem noch seine interne Struktur und einige semantische Informationen liefert, dann fragt man sich irgendwann: Könnte ich nicht auf der Grundlage dieser Angaben einen Text global charakterisieren, etwa indem ich versuche, die wichtigen Wörter dieses Textes zu errechnen? Die häufigsten Textwörter können es nicht sein, denn gerade sie sind sehr nichtssagend. Die seltensten Textwörter sind zwar aussagekräftig, aber sie sind zu viele - die meisten Lemmata eines Textes erscheinen nur ein einziges Mal. Irgendwie müsste man den Wortschatz einschränken können. Die rettende Idee war: Wir tun so, als seien die semantischen Merkmale Wörter, denn dann enthält der Wortschatz dieser Sprache nur noch etwa hundert Elemente, weil unsere morphologische Analyse (Mpro) rund 100 semantische Features verwendet. Wir vermuteten nun, dass die häufig vorkommenden Features wichtig für den Text sind und die selteneren als Ausreißer betrachten werden können. Die Implementierung dieser Idee ist der Urahn unseres Programmpaketes AUTINDEX zur automatischen Indexierung von Texten. Dieses allererste Programm erstellte also zu einem Text eine Statistik der semantischen Merkmale und gab die drei häufigsten Klassen mit den zugehörigen Lemmata aus. Das Ergebnis war verblüffend: Auf den ersten Blick konnte man sehen, worum es in dem Text ging. Bei näherem Hinsehen wurden aber auch Unzulänglichkeiten deutlich. Einige der Schlagwörter waren doch ziemlich nichtssagend, andere hätte man gerne in der Liste gehabt, und schließlich hätte man sich noch eine ganz globale Charakterisierung des Textes durch die Angabe von Fachgebieten gewünscht, etwa in der Form: Der Text hat mit Politik oder Wirtschaft zu tun, er berichtet über einen Unfall, eine Feierlichkeit usw. Es wurde also sofort deutlich, dass das Programm ohne eine weitere Wissensquelle keine wirklich guten Ergebnisse würde liefern können. Man braucht also einen Thesaurus, ein Wörterbuch, in dem einzelne Lemmata und auch mehrwortige Ausdrücke mit zusätzlichen Informationen versehen sind.
    Die erste Implementierung wurde in Zusammenarbeit mit dem Fachinformationszentrum Technik (Frankfurt) erstellt. Eine Kontrolle der manuell vergebenen Grob- und Feinklassifizierung der Lexikonartikel des Brockhaus Multimedial und anderer Brockhaus-Lexika wurde mit AUTINDEX in Zusammenarbeit mit BIFAB (Mannheim) durchgeführt. AUTINDEX ist auch Bestandteil des Indexierungs- und Retrievalsystems der Firma AGI (Neustadt/Weinstraße), das in der Landesbibliothek Vorarlberg eingesetzt wird. Weiterhin wird AUTINDEX im System LEWI verwendet, das zusammen mit BIFAB entwickelt wird. Dieses System erlaubt natürlichsprachliche Anfragen an den Brockhaus Multimedial und liefert als Antwort die relevanten Lexikonartikel. Im IAI selbst wurden große Textmengen indexiert (Brockhaus- und Dudenlexika, Zeitungstexte usw.), die man für die Weiterentwicklung diverser Thesauri und Wörterbücher nutzen kann. Beispielsweise kann man sich für ein Wort alle Texte ausgeben lassen, in denen dieses Wort wichtig ist. Dabei sind die Texte nach Wichtigkeit sortiert. Zu einem gegebenen Wort kann man sich auch die Assoziationen oder die möglichen Klassifikationen berechnen lassen. Auf diese Weise kann man einen Thesaurus halbautomatisch erweitern.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  14. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.02
    0.024027588 = product of:
      0.102975376 = sum of:
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015775148 = weight(_text_:der in 2489) [ClassicSimilarity], result of:
          0.015775148 = score(doc=2489,freq=14.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.326484 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.00954849 = weight(_text_:im in 2489) [ClassicSimilarity], result of:
          0.00954849 = score(doc=2489,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.15615936 = fieldWeight in 2489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
        0.015530346 = weight(_text_:und in 2489) [ClassicSimilarity], result of:
          0.015530346 = score(doc=2489,freq=14.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.32394084 = fieldWeight in 2489, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.23333333 = coord(7/30)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.3/4, S.33-38
  15. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.023479678 = product of:
      0.14087807 = sum of:
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
        0.028175613 = weight(_text_:und in 886) [ClassicSimilarity], result of:
          0.028175613 = score(doc=886,freq=18.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.58770305 = fieldWeight in 886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.16666667 = coord(5/30)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  16. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.02
    0.022852972 = product of:
      0.09794131 = sum of:
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.015775148 = weight(_text_:der in 8) [ClassicSimilarity], result of:
          0.015775148 = score(doc=8,freq=14.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.326484 = fieldWeight in 8, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.016538471 = weight(_text_:im in 8) [ClassicSimilarity], result of:
          0.016538471 = score(doc=8,freq=6.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.27047595 = fieldWeight in 8, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
        0.013125538 = weight(_text_:und in 8) [ClassicSimilarity], result of:
          0.013125538 = score(doc=8,freq=10.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.27378 = fieldWeight in 8, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=8)
      0.23333333 = coord(7/30)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  17. Rädler, K.: In Bibliothekskatalogen "googlen" : Integration von Inhaltsverzeichnissen, Volltexten und WEB-Ressourcen in Bibliothekskataloge (2004) 0.02
    0.022113575 = product of:
      0.094772466 = sum of:
        0.014378307 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.014378307 = score(doc=2432,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.014378307 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.014378307 = score(doc=2432,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.013332433 = weight(_text_:der in 2432) [ClassicSimilarity], result of:
          0.013332433 = score(doc=2432,freq=10.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.27592933 = fieldWeight in 2432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.014378307 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.014378307 = score(doc=2432,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.014378307 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.014378307 = score(doc=2432,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.00954849 = weight(_text_:im in 2432) [ClassicSimilarity], result of:
          0.00954849 = score(doc=2432,freq=2.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.15615936 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
        0.014378307 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.014378307 = score(doc=2432,freq=12.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.29991096 = fieldWeight in 2432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2432)
      0.23333333 = coord(7/30)
    
    Abstract
    Ausgangslage Die Katalog-Recherchen über Internet, also von außerhalb der Bibliothek, nehmen erwartungsgemäß stark zu bzw. sind mittlerweile die Regel. Damit ist natürlich das Bedürfnis und die Notwendigkeit gewachsen, über den Titel hinaus zusätzliche inhaltliche Informationen zu erhalten, die es erlauben, die Zweckmäßigkeit wesentlich besser abschätzen zu können, eine Bestellung vorzunehmen oder vielleicht auch 50 km in die Bibliothek zu fahren, um ein Buch zu entleihen. Dieses Informationsdefizit wird zunehmend als gravierender Mangel erfahren. Inhaltsverzeichnisse referieren den Inhalt kurz und prägnant. Sie sind die erste Stelle, welche zur Relevanz-Beurteilung herangezogen wird. Fast alle relevanten Terme einer Fachbuchpublikation finden sich bereits dort. Andererseits wird immer deutlicher, dass die dem bibliothekarischen Paradigma entsprechende intellektuelle Indexierung der einzelnen dokumentarischen Einheiten mit den engsten umfassenden dokumentationssprachlichen Termen (Schlagwörter, Klassen) zwar eine notwendige, aber keinesfalls hinreichende Methode darstellt, das teuer erworbene Bibliotheksgut Information für den Benutzer in seiner spezifischen Problemstellung zu aktivieren und als Informationsdienstleistung anbieten zu können. Informationen zu sehr speziellen Fragestellungen, die oft nur in kürzeren Abschnitten (Kapitel) erörtert werden, sind derzeit nur indirekt, mit großem Zeitaufwand und oft überhaupt nicht auffindbar. Sie liegen sozusagen brach. Die Tiefe der intellektuellen Indexierung bis in einzelne inhaltliche Details zu erweitern, ist aus personellen und damit auch finanziellen Gesichtspunkten nicht vertretbar. Bibliotheken fallen deshalb in der Wahrnehmung von Informationssuchenden immer mehr zurück. Die enorme Informationsvielfalt liegt hinter dem Informations- bzw. Recherchehorizont der bibliographischen Aufnahmen im Katalog.
  18. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.02
    0.021353777 = product of:
      0.09151619 = sum of:
        0.012200398 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012200398 = score(doc=883,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.012200398 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012200398 = score(doc=883,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.014309869 = weight(_text_:der in 883) [ClassicSimilarity], result of:
          0.014309869 = score(doc=883,freq=8.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.29615843 = fieldWeight in 883, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.012200398 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012200398 = score(doc=883,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.012200398 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012200398 = score(doc=883,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.016204325 = weight(_text_:im in 883) [ClassicSimilarity], result of:
          0.016204325 = score(doc=883,freq=4.0), product of:
            0.06114581 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.021630857 = queryNorm
            0.26501122 = fieldWeight in 883, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
        0.012200398 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.012200398 = score(doc=883,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.2544829 = fieldWeight in 883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=883)
      0.23333333 = coord(7/30)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  19. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.02
    0.021315245 = product of:
      0.10657622 = sum of:
        0.016267197 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.016267197 = score(doc=4891,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.016267197 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.016267197 = score(doc=4891,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.025240237 = weight(_text_:der in 4891) [ClassicSimilarity], result of:
          0.025240237 = score(doc=4891,freq=14.0), product of:
            0.04831829 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021630857 = queryNorm
            0.5223744 = fieldWeight in 4891, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.016267197 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.016267197 = score(doc=4891,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.016267197 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.016267197 = score(doc=4891,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
        0.016267197 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.016267197 = score(doc=4891,freq=6.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.2 = coord(6/30)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  20. Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005) 0.02
    0.019369747 = product of:
      0.11621848 = sum of:
        0.023243695 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.023243695 = score(doc=2059,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.023243695 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.023243695 = score(doc=2059,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.023243695 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.023243695 = score(doc=2059,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.023243695 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.023243695 = score(doc=2059,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
        0.023243695 = weight(_text_:und in 2059) [ClassicSimilarity], result of:
          0.023243695 = score(doc=2059,freq=4.0), product of:
            0.04794192 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021630857 = queryNorm
            0.4848303 = fieldWeight in 2059, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2059)
      0.16666667 = coord(5/30)
    
    Imprint
    Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften

Languages

  • d 46
  • e 10

Types

  • a 36
  • x 14
  • el 4
  • m 3
  • p 1
  • More… Less…