Search (37 results, page 1 of 2)

  • × theme_ss:"Automatisches Indexieren"
  • × language_ss:"d"
  1. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.008148543 = product of:
      0.073336884 = sum of:
        0.073336884 = product of:
          0.14667377 = sum of:
            0.14667377 = weight(_text_:bewertung in 2653) [ClassicSimilarity], result of:
              0.14667377 = score(doc=2653,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.78962374 = fieldWeight in 2653, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  2. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.007299742 = product of:
      0.03284884 = sum of:
        0.0069203344 = product of:
          0.013840669 = sum of:
            0.013840669 = weight(_text_:web in 897) [ClassicSimilarity], result of:
              0.013840669 = score(doc=897,freq=2.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.14422815 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.025928505 = product of:
          0.05185701 = sum of:
            0.05185701 = weight(_text_:bewertung in 897) [ClassicSimilarity], result of:
              0.05185701 = score(doc=897,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.27917415 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
      0.22222222 = coord(2/9)
    
    Abstract
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  3. Salton, G.; McGill, M. J.: Information Retrieval: Grundlegendes für Informationswissenschaftler (1987) 0.01
    0.007202362 = product of:
      0.06482126 = sum of:
        0.06482126 = product of:
          0.12964252 = sum of:
            0.12964252 = weight(_text_:bewertung in 8648) [ClassicSimilarity], result of:
              0.12964252 = score(doc=8648,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.69793534 = fieldWeight in 8648, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.078125 = fieldNorm(doc=8648)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Content
    Enthält die Kapitel: Information Retrieval: eine Einführung; Invertierte Dateisysteme; Textanalyse und automatisches Indexieren; Die experimentellen Retrievalsysteme SMART und SIRE; Die Bewertung von Retrievalsystemen; Fortgeschrittene Retrievaltechniken; Verarbeitung natürlicher Sprache; Informationstechnologie: Hardware und Software; Datenbankmanagementsysteme; Zukünftige Entwicklungen im Information Retrieval
  4. Kaiser, A.: Computer-unterstütztes Indexieren in Intelligenten Information Retrieval Systemen : Ein Relevanz-Feedback orientierter Ansatz zur Informationserschließung in unformatierten Datenbanken (1993) 0.01
    0.0065630833 = product of:
      0.05906775 = sum of:
        0.05906775 = weight(_text_:benutzerfreundlichkeit in 4284) [ClassicSimilarity], result of:
          0.05906775 = score(doc=4284,freq=2.0), product of:
            0.2289144 = queryWeight, product of:
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.02940506 = queryNorm
            0.25803423 = fieldWeight in 4284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.7848644 = idf(docFreq=49, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4284)
      0.11111111 = coord(1/9)
    
    Abstract
    Konventionelle, formatierte Datenbanken sind heute in der Praxis bereits weit verbreitet. Dies nicht zuletzt auch deshalb, weil unter anderem die standardisierte Abfragesprache SQL existiert und insbesondere bei relationalen Datenbanksystemen die Forschung intensiv an Verbesserungen in Aufbau und Performance der Systeme arbeitet. Die Verbreitung und Akzeptanz von unformatierten Datenbanken, Information Retrieval Systemen, ist hingegen bei weitem nicht so weit gediehen. Ein Grund dafür ist in der mangelnden Benutzerfreundlichkeit der IR-Systeme und in unzulänglichen Methoden der Informationserschließung zu suchen. Mit der vorliegenden Arbeit soll eine Methode zur Informationserschliessung in Information Retrieval Systemen entwickelt werden, die die Bedürfnisse des Benutzers in den Mittelpunkt stellt und so einen Beitrag dazu leistet, die Akzeptanz und Verbreitung von Information Retrieval Systemen, insbesondere für den Bürobereich, zu erhöhen. Die Fragestellung lautet somit: Ist es möglich, den Benutzer bereits im Stadium der Indexierung von Dokumenten in verstärktem Maße miteinzubeziehen, ohne dabei aber auf die maschinelle Unterstützung völlig zu verzichten, wie dies bei der manuellen Indexierung der Fall ist. Jedes Retrievalsystem kann als ein System beschrieben werden, das aus einer Menge von Dokumenten und einer Menge von Suchfragen besteht und das einen Mechanismus enthält, der die für eine Suchanfrage relevanten Dokumente bestimmt.
  5. Groß, T.: Automatische Indexierung von Dokumenten in einer wissenschaftlichen Bibliothek : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2011) 0.01
    0.0050928392 = product of:
      0.04583555 = sum of:
        0.04583555 = product of:
          0.0916711 = sum of:
            0.0916711 = weight(_text_:bewertung in 1083) [ClassicSimilarity], result of:
              0.0916711 = score(doc=1083,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.49351484 = fieldWeight in 1083, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1083)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von intellektuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Studie befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer der Firma Recommind an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften. Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Schlagwörter umfassenden Standard-Thesaurus Wirtschaft wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Studie liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung an die hierzu von Stock und Lancaster vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Weiterhin wird die Belegungsbilanz des STW evaluiert und es erfolgt zusätzlich eine qualitative, stichprobenartige Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
  6. Groß, T.: Automatische Indexierung von wirtschaftswissenschaftlichen Dokumenten : Implementierung und Evaluierung am Beispiel der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (2010) 0.01
    0.0050928392 = product of:
      0.04583555 = sum of:
        0.04583555 = product of:
          0.0916711 = sum of:
            0.0916711 = weight(_text_:bewertung in 2078) [ClassicSimilarity], result of:
              0.0916711 = score(doc=2078,freq=4.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.49351484 = fieldWeight in 2078, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2078)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Die Bewertung der Indexierungsqualität bzw. -güte ist ein grundlegendes Problem von manuellen und automatischen Indexierungsverfahren. Letztere werden aber gerade im digitalen Zeitalter als einzige Möglichkeit angesehen, den zunehmenden Schwierigkeiten bibliothekarischer Informationsstrukturierung gerecht zu werden. Diese Arbeit befasst sich mit der Funktionsweise, Implementierung und Evaluierung der Sacherschließungssoftware MindServer Categorizer, der Firma Recommind, an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW). Grundlage der maschinellen Sacherschließung und anschließenden quantitativen und qualitativen Auswertung bilden rund 39.000 wirtschaftswissenschaftliche Dokumente aus den Datenbanken Econis und EconStor. Unter Zuhilfenahme des rund 6.000 Deskriptoren umfassenden Standard-Thesaurus Wirtschaft (STW) wird der ursprünglich rein statistische Indexierungsansatz des MindServer Categorizer zu einem begriffsorientierten Verfahren weiterentwickelt und zur Inhaltserschließung digitaler Informationsressourcen eingesetzt. Der zentrale Fokus dieser Arbeit liegt vor allem auf der Evaluierung der maschinell beschlagworteten Titel, in Anlehnung und entsprechender Anpassung der von Stock (2008) und Lancaster (2003) hierzu vorgeschlagenen Kriterien: Indexierungskonsistenz, -tiefe, -breite, -spezifität, -effektivität. Zusätzlich wird die Belegungsbilanz des STW evaluiert und es erfolgt ferner eine stichprobenartige, qualitative Bewertung der Ergebnisse seitens der zuständigen Fachreferenten und -referentinnen.
  7. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.00
    0.0043214173 = product of:
      0.038892757 = sum of:
        0.038892757 = product of:
          0.077785514 = sum of:
            0.077785514 = weight(_text_:bewertung in 883) [ClassicSimilarity], result of:
              0.077785514 = score(doc=883,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.41876122 = fieldWeight in 883, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.046875 = fieldNorm(doc=883)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  8. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.00
    0.003601181 = product of:
      0.03241063 = sum of:
        0.03241063 = product of:
          0.06482126 = sum of:
            0.06482126 = weight(_text_:bewertung in 318) [ClassicSimilarity], result of:
              0.06482126 = score(doc=318,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.34896767 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
  9. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.00
    0.003601181 = product of:
      0.03241063 = sum of:
        0.03241063 = product of:
          0.06482126 = sum of:
            0.06482126 = weight(_text_:bewertung in 3954) [ClassicSimilarity], result of:
              0.06482126 = score(doc=3954,freq=2.0), product of:
                0.18575147 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.02940506 = queryNorm
                0.34896767 = fieldWeight in 3954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3954)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
  10. Lepsky, K.: Automatische Indexierung und bibliothekarische Inhaltserschließung : Ergebnisse des DFG-Projekts MILOS I (1996) 0.00
    0.0033974003 = product of:
      0.030576602 = sum of:
        0.030576602 = product of:
          0.061153203 = sum of:
            0.061153203 = weight(_text_:seite in 2061) [ClassicSimilarity], result of:
              0.061153203 = score(doc=2061,freq=2.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3713015 = fieldWeight in 2061, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2061)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Kooperative Katalogisierung in der Bibliotheksverbünden und steigende Zahlen retrokonvertierter Altdaten füfhren zu einem stetigen Anwachsen maschinenlesbar verfügbarer Titeldaten. Dieser Entewicklung aud ser Katalogisat- bzw. Datenseite entspricht eine ähnlich rasante Entwicklung auf der Seite der Zugangsmöglichkeiten, den Online-Publikumskatalogen. Immer mehr Katalogdaten von immer mehr Bibliotheken sind in immer mehr OPACs nachgewiesen. Mit dieser auch durch neue Zugriffsformen (Internet) verbesserten Verfügbarkeit hält die bibliothekarische Sacherschließung längst nicht mehr Schritt. In diesem Beitrag werden die Vorgehensweise und Ergebnisse des Projektes MILOS I vorgestellt, das an der Universitäts- und Landesbibliothek zur automatischen Indexierung bibliothekarischer Titeldaten und zur Anreicherung von Katalogdaten durchgeführt wurde.
  11. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.00
    0.0030986508 = product of:
      0.027887857 = sum of:
        0.027887857 = product of:
          0.055775713 = sum of:
            0.055775713 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.055775713 = score(doc=262,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    20.10.2000 12:22:23
  12. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.047807753 = score(doc=58,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    14. 6.2015 22:12:44
  13. Hauer, M.: Automatische Indexierung (2000) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.047807753 = score(doc=5887,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt
  14. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
              0.047807753 = score(doc=2051,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 2051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2051)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    14. 6.2015 22:12:56
  15. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.00
    0.0026559862 = product of:
      0.023903877 = sum of:
        0.023903877 = product of:
          0.047807753 = sum of:
            0.047807753 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.047807753 = score(doc=5629,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  16. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.00
    0.0022649334 = product of:
      0.020384401 = sum of:
        0.020384401 = product of:
          0.040768802 = sum of:
            0.040768802 = weight(_text_:seite in 2543) [ClassicSimilarity], result of:
              0.040768802 = score(doc=2543,freq=2.0), product of:
                0.16469958 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.02940506 = queryNorm
                0.24753433 = fieldWeight in 2543, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2543)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
  17. Lepsky, K.; Vorhauer, J.: Lingo - ein open source System für die Automatische Indexierung deutschsprachiger Dokumente (2006) 0.00
    0.0017706576 = product of:
      0.015935918 = sum of:
        0.015935918 = product of:
          0.031871837 = sum of:
            0.031871837 = weight(_text_:22 in 3581) [ClassicSimilarity], result of:
              0.031871837 = score(doc=3581,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.30952093 = fieldWeight in 3581, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3581)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    24. 3.2006 12:22:02
  18. Probst, M.; Mittelbach, J.: Maschinelle Indexierung in der Sacherschließung wissenschaftlicher Bibliotheken (2006) 0.00
    0.0017706576 = product of:
      0.015935918 = sum of:
        0.015935918 = product of:
          0.031871837 = sum of:
            0.031871837 = weight(_text_:22 in 1755) [ClassicSimilarity], result of:
              0.031871837 = score(doc=1755,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.30952093 = fieldWeight in 1755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1755)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    22. 3.2008 12:35:19
  19. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.0017706576 = product of:
      0.015935918 = sum of:
        0.015935918 = product of:
          0.031871837 = sum of:
            0.031871837 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.031871837 = score(doc=401,freq=2.0), product of:
                0.10297151 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02940506 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Date
    11. 9.2012 19:43:22
  20. Hauer, M: Silicon Valley Vorarlberg : Maschinelle Indexierung und semantisches Retrieval verbessert den Katalog der Vorarlberger Landesbibliothek (2004) 0.00
    0.0016647738 = product of:
      0.014982964 = sum of:
        0.014982964 = product of:
          0.029965928 = sum of:
            0.029965928 = weight(_text_:web in 2489) [ClassicSimilarity], result of:
              0.029965928 = score(doc=2489,freq=6.0), product of:
                0.09596372 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.02940506 = queryNorm
                0.3122631 = fieldWeight in 2489, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2489)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Abstract
    10 Jahre Internet haben die WeIt um die Bibliotheken herum stark geändert. Der Web-OPAC war eine Antwort der Bibliotheken. Doch reicht ein Web-OPAC im Zeitalter des Internets noch aus? Außer Web ist es doch der alte Katalog. Ca. 90% aller Bibliotheksrecherchen durch Benutzer sind Themenrecherchen. Ein Anteil dieser Recherchen bringt kein Ergebnis. Es kann leicht gemessen werden, dass null Medien gefunden wurden. Die Gründe hierfür wurden auch immer wieder untersucht: Plural- anstelle Singularformen, zu spezifische Suchbegriffe, Schreib- oder Bedienungsfehler. Zu wenig untersucht sind aber die Recherchen, die nicht mit einer Ausleihe enden, denn auch dann kann man in vielen Fällen von einem Retrieval-Mangel ausgehen. Schließlich: Von den ausgeliehenen Büchern werden nach Einschätzung vieler Bibliothekare 80% nicht weiter als bis zum Inhaltsverzeichnis gelesen (außer in Präsenzbibliotheken) - und erst nach Wochen zurückgegeben. Ein Politiker würde dies neudeutsch als "ein Vermittlungsproblem" bezeichnen. Ein Controller als nicht hinreichende Kapitalnutzung. Einfacher machen es sich immer mehr Studenten und Wissenschaftler, ihr Wissensaustausch vollzieht sich zunehmend an anderen Orten. Bibliotheken (als Funktion) sind unverzichtbar für die wissenschaftliche Kommunikation. Deshalb geht es darum, Wege zu finden und auch zu beschreiten, welche die Schätze von Bibliotheken (als Institution) effizienter an die Zielgruppe bringen. Der Einsatz von Information Retrieval-Technologie, neue Erschließungsmethoden und neuer Content sind Ansätze dazu. Doch die bisherigen Verbundstrukturen und Abhängigkeit haben das hier vorgestellte innovative Projekt keineswegs gefördert. Innovation entsteht wie die Innvoationsforschung zeigt eigentlich immer an der Peripherie: in Bregenz fing es an.

Years

Types

  • a 24
  • x 7
  • m 5
  • el 2
  • d 1
  • s 1
  • More… Less…