Search (44 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"a"
  1. Knorz, G.: Automatische Indexierung (1994) 0.02
    0.01816136 = product of:
      0.063564755 = sum of:
        0.043814123 = weight(_text_:retrieval in 4254) [ClassicSimilarity], result of:
          0.043814123 = score(doc=4254,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.40105087 = fieldWeight in 4254, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=4254)
        0.01975063 = product of:
          0.05925189 = sum of:
            0.05925189 = weight(_text_:29 in 4254) [ClassicSimilarity], result of:
              0.05925189 = score(doc=4254,freq=2.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.46638384 = fieldWeight in 4254, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4254)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    29. 1.2011 17:56:21
    Source
    Wissensrepräsentation und Information Retrieval. R.-D. Hennings u.a
  2. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.01
    0.012073731 = product of:
      0.042258058 = sum of:
        0.029209416 = weight(_text_:retrieval in 3581) [ClassicSimilarity], result of:
          0.029209416 = score(doc=3581,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 3581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3581)
        0.01304864 = product of:
          0.03914592 = sum of:
            0.03914592 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.03914592 = score(doc=3581,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Lingo ist ein frei verfügbares System (open source) zur automatischen Indexierung der deutschen Sprache. Bei der Entwicklung von lingo standen hohe Konfigurierbarkeit und Flexibilität des Systems für unterschiedliche Einsatzmöglichkeiten im Vordergrund. Der Beitrag zeigt den Nutzen einer linguistisch basierten automatischen Indexierung für das Information Retrieval auf. Die für eine Retrievalverbesserung zur Verfügung stehende linguistische Funktionalität von lingo wird vorgestellt und an Beispielen erläutert: Grundformerkennung, Kompositumerkennung bzw. Kompositumzerlegung, Wortrelationierung, lexikalische und algorithmische Mehrwortgruppenerkennung, OCR-Fehlerkorrektur. Der offene Systemaufbau von lingo wird beschrieben, mögliche Einsatzszenarien und Anwendungsgrenzen werden benannt.
    Date
    24. 3.2006 12:22:02
  3. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.01
    0.012073731 = product of:
      0.042258058 = sum of:
        0.029209416 = weight(_text_:retrieval in 1755) [ClassicSimilarity], result of:
          0.029209416 = score(doc=1755,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 1755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=1755)
        0.01304864 = product of:
          0.03914592 = sum of:
            0.03914592 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.03914592 = score(doc=1755,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Obwohl fast alle größeren Bibliotheken intellektuelle Sacherschließung betreiben, sind elektronische Kataloge für die zielgerichtete sachliche Suche nur eingeschränkt nutzbar. Durch maschinelle Indexierung können ohne nennenswerten personellen Mehraufwand ausreichend große Datenmengen für Informationsretrievalsysteme erzeugt und somit die Auffindbarkeit von Dokumenten erhöht werden. Geeignete Sprachanalysetechniken zur Indextermerzeugung sind bekannt und bieten im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vorteile beim Retrieval. Im Fokus steht die Betrachtung der Vor- und Nachteile der gängigen Indexierungssysteme MILOS und intelligentCAPTURE.
    Date
    22. 3.2008 12:35:19
  4. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.01
    0.010564514 = product of:
      0.036975797 = sum of:
        0.025558239 = weight(_text_:retrieval in 5671) [ClassicSimilarity], result of:
          0.025558239 = score(doc=5671,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23394634 = fieldWeight in 5671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5671)
        0.011417559 = product of:
          0.034252677 = sum of:
            0.034252677 = weight(_text_:22 in 5671) [ClassicSimilarity], result of:
              0.034252677 = score(doc=5671,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.2708308 = fieldWeight in 5671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5671)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Date
    22. 3.2001 13:14:48
  5. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.007665875 = product of:
      0.053661123 = sum of:
        0.053661123 = weight(_text_:retrieval in 6386) [ClassicSimilarity], result of:
          0.053661123 = score(doc=6386,freq=12.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.49118498 = fieldWeight in 6386, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  6. Pfeifer, U.: Entwicklung linear-iterativer und logistischer Indexierungsfunktionen (1991) 0.01
    0.007302354 = product of:
      0.051116478 = sum of:
        0.051116478 = weight(_text_:retrieval in 794) [ClassicSimilarity], result of:
          0.051116478 = score(doc=794,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46789268 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.109375 = fieldNorm(doc=794)
      0.14285715 = coord(1/7)
    
    Source
    Information retrieval: GI/GMD-Workshop, Darmstadt, 23.-24.6.1991: Proceedings. Ed.: N. Fuhr
  7. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.01
    0.0072274567 = product of:
      0.050592195 = sum of:
        0.050592195 = weight(_text_:retrieval in 2322) [ClassicSimilarity], result of:
          0.050592195 = score(doc=2322,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46309367 = fieldWeight in 2322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2322)
      0.14285715 = coord(1/7)
    
    Abstract
    Ausgehend von theoretischen Indexierungsansätzen wird das klassische Vektorraum-Modell für automatische Indexierung (mit dem Trennschärfen-Modell) erläutert. Das Clustering in Information-Retrieval-Systemem wird als eine natürliche logische Folge aus diesem Modell aufgefaßt und in allen seinen Ausprägungen (d.h. als Dokumenten-, Term- oder Dokumenten- und Termklassifikation) behandelt. Anschließend werden die Suchstrategien in vorklassifizierten Dokumentenbeständen (Clustersuche) detailliert beschrieben. Zum Schluß wird noch die sinnvolle Anwendung der Clusteranalyse in Information-Retrieval-Systemen kurz diskutiert
  8. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.01
    0.006553931 = product of:
      0.045877516 = sum of:
        0.045877516 = product of:
          0.068816274 = sum of:
            0.0345636 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.0345636 = score(doc=5344,freq=2.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
            0.034252677 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.034252677 = score(doc=5344,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.6666667 = coord(2/3)
      0.14285715 = coord(1/7)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  9. Reimer, U.: Verfahren der automatischen Indexierung : benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition, ein Überblick (1992) 0.01
    0.0062591606 = product of:
      0.043814123 = sum of:
        0.043814123 = weight(_text_:retrieval in 7858) [ClassicSimilarity], result of:
          0.043814123 = score(doc=7858,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.40105087 = fieldWeight in 7858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=7858)
      0.14285715 = coord(1/7)
    
    Source
    Experimentelles und praktisches Information Retrieval: Festschrift für Gerhard Lustig. Hrsg. R. Kuhlen
  10. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.01
    0.0059011932 = product of:
      0.04130835 = sum of:
        0.04130835 = weight(_text_:retrieval in 886) [ClassicSimilarity], result of:
          0.04130835 = score(doc=886,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37811437 = fieldWeight in 886, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=886)
      0.14285715 = coord(1/7)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  11. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.0058316286 = product of:
      0.0408214 = sum of:
        0.0408214 = weight(_text_:retrieval in 5863) [ClassicSimilarity], result of:
          0.0408214 = score(doc=5863,freq=10.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.37365708 = fieldWeight in 5863, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(1/7)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  12. Lück, W.; Rittberger, W.; Schwantner, M.: ¬Der Einsatz des Automatischen Indexierungs- und Retrievalsystems (AIR) im Fachinformationszentrum Karlsruhe (1994) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 8153) [ClassicSimilarity], result of:
          0.03651177 = score(doc=8153,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 8153, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=8153)
      0.14285715 = coord(1/7)
    
    Footnote
    Wiederabdruck aus: Experimentelles und praktisches Information Retrieval. Hrsg.: R. Kuhlen. Konstanz: Universitätsverlag 1992
  13. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 2489) [ClassicSimilarity], result of:
          0.03651177 = score(doc=2489,freq=8.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 2489, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2489)
      0.14285715 = coord(1/7)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  14. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 3412) [ClassicSimilarity], result of:
          0.03651177 = score(doc=3412,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 3412, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=3412)
      0.14285715 = coord(1/7)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  15. Gödert, W.; Lepsky, K.: Semantische Umfeldsuche im Information Retrieval (1998) 0.01
    0.005163544 = product of:
      0.036144804 = sum of:
        0.036144804 = weight(_text_:retrieval in 606) [ClassicSimilarity], result of:
          0.036144804 = score(doc=606,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33085006 = fieldWeight in 606, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=606)
      0.14285715 = coord(1/7)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  16. Gödert, W.; Liebig, M.: Maschinelle Indexierung auf dem Prüfstand : Ergebnisse eines Retrievaltests zum MILOS II Projekt (1997) 0.01
    0.005163544 = product of:
      0.036144804 = sum of:
        0.036144804 = weight(_text_:retrieval in 1174) [ClassicSimilarity], result of:
          0.036144804 = score(doc=1174,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33085006 = fieldWeight in 1174, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1174)
      0.14285715 = coord(1/7)
    
    Abstract
    The test ran between Nov 95-Aug 96 in Cologne Fachhochschule fur Bibliothekswesen (College of Librarianship).The test basis was a database of 190,000 book titles published between 1990-95. MILOS II mechanized indexing methods proved helpful in avoiding or reducing numbers of unsatisfied/no result retrieval searches. Retrieval from mechanised indexing is 3 times more successful than from title keyword data. MILOS II also used a standardized semantic vocabulary. Mechanised indexing demands high quality software and output data
  17. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.00
    0.004655269 = product of:
      0.03258688 = sum of:
        0.03258688 = product of:
          0.09776064 = sum of:
            0.09776064 = weight(_text_:29 in 4251) [ClassicSimilarity], result of:
              0.09776064 = score(doc=4251,freq=4.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.7694941 = fieldWeight in 4251, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    29. 1.2011 14:56:29
  18. Ladewig, C.; Henkes, M.: Verfahren zur automatischen inhaltlichen Erschließung von elektronischen Texten : ASPECTIX (2001) 0.00
    0.004425895 = product of:
      0.030981263 = sum of:
        0.030981263 = weight(_text_:retrieval in 5794) [ClassicSimilarity], result of:
          0.030981263 = score(doc=5794,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.2835858 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=5794)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Verfahren zur automatischen syntaktischen inhaltlichen Erschließung von elektronischen Texten, AspectiX, basiert auf einem Index, dessen Elemente mit einer universellen Aspekt-Klassifikation verknüpft sind, die es erlauben, ein syntaktisches Retrieval durchzuführen. Mit diesen, auf den jeweiligen Suchgegenstand inhaltlich bezogenen Klassifikationselementen, werden die Informationen in elektronischen Texten mit bekannten Suchalgorithmen abgefragt und die Ergebnisse entsprechend der Aspektverknüpfung ausgewertet. Mit diesen Aspekten ist es möglich, unbekannte Textdokumente automatisch fachgebiets- und sprachunabhängig nach Inhalten zu klassifizieren und beim Suchen in einem Textcorpus nicht nur auf die Verwendung von Zeichenfolgen angewiesen zu sein wie bei Suchmaschinen im WWW. Der Index kann bei diesen Vorgängen intellektuell und automatisch weiter ausgebaut werden und liefert Ergebnisse im Retrieval von nahezu 100 Prozent Precision, bei gleichzeitig nahezu 100 Prozent Recall. Damit ist das Verfahren AspectiX allen anderen Recherchetools um bis zu 40 Prozent an Precision bzw. Recall überlegen, wie an zahlreichen Recherchen in drei Datenbanken, die unterschiedlich groß und thematisch unähnlich sind, nachgewiesen wird
  19. Zimmermann, H.: Automatische Indexierung: Entwicklung und Perspektiven (1983) 0.00
    0.004172774 = product of:
      0.029209416 = sum of:
        0.029209416 = weight(_text_:retrieval in 2318) [ClassicSimilarity], result of:
          0.029209416 = score(doc=2318,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 2318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2318)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Automatische Indexierung als ein Teilgebiet der Inhaltserschließung wird inzwischen in einer Reihe von Gebieten, vor allem in der Fachinformation und Kommunikation praktisch eingesetzt. Dabei dominieren äußerst einfache Systeme, die (noch) erhebliche Anpassungen des Benutzers an die jeweilige Systemstrategie voraussetzen. Unter Berücksichtigung des Konzepts der Einheit von Informationserschließung und -retrieval werden höherwertige ("intelligentere") Verfahren vorgestellt, die der Entlastung des Informationssuchenden wie auch der Verbesserung der Rechercheergebnisse dienen sollen
  20. Lustig, G.: Automatische Indexierung : Erfahrungen und Perspektiven (1989) 0.00
    0.004172774 = product of:
      0.029209416 = sum of:
        0.029209416 = weight(_text_:retrieval in 2323) [ClassicSimilarity], result of:
          0.029209416 = score(doc=2323,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 2323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2323)
      0.14285715 = coord(1/7)
    
    Abstract
    Es wird zunächst ein "ideales Information-Retrieval-System" beschrieben und diskutiert. Als Kernproblem für -selbst bescheidene - Entwicklungen in die dadurch aufgezeigte Richtung wird das "Verstehen" von Texten durch den Computer angesehen, wobei je nach der Aufgabenstellung einer Systemkomponente stets nur ein partielles Verstehen erforderlich ist. Ein relativ einfaches, aber keineswegs triviales Beispiel dieser Art ist die automatische Indexierung von Referatetexten bei vorgegebenen Deskriptorensystem. Von diesem Problem werden Ansätze, Ergebnisse und Erfahrungen mitgeteilt. Darauf aufbauend werden weitere Forschungsrichtungen und Entwicklungsmöglichkeiten mitgeteilt