Search (48 results, page 1 of 3)

  • × theme_ss:"Automatisches Indexieren"
  1. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.06
    0.060956687 = product of:
      0.18287006 = sum of:
        0.14342903 = weight(_text_:intelligenz in 372) [ClassicSimilarity], result of:
          0.14342903 = score(doc=372,freq=6.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.6519808 = fieldWeight in 372, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.039441027 = product of:
          0.07888205 = sum of:
            0.07888205 = weight(_text_:darstellung in 372) [ClassicSimilarity], result of:
              0.07888205 = score(doc=372,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.36738807 = fieldWeight in 372, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.046875 = fieldNorm(doc=372)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
  2. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.04
    0.036792085 = product of:
      0.2207525 = sum of:
        0.2207525 = sum of:
          0.1577641 = weight(_text_:darstellung in 2051) [ClassicSimilarity], result of:
            0.1577641 = score(doc=2051,freq=2.0), product of:
              0.21471043 = queryWeight, product of:
                5.542029 = idf(docFreq=470, maxDocs=44218)
                0.038742207 = queryNorm
              0.73477614 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.542029 = idf(docFreq=470, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
          0.06298841 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
            0.06298841 = score(doc=2051,freq=2.0), product of:
              0.1356686 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.038742207 = queryNorm
              0.46428138 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
  3. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.03
    0.03395828 = product of:
      0.101874836 = sum of:
        0.069007315 = weight(_text_:intelligenz in 4283) [ClassicSimilarity], result of:
          0.069007315 = score(doc=4283,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.31368437 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.03286752 = product of:
          0.06573504 = sum of:
            0.06573504 = weight(_text_:darstellung in 4283) [ClassicSimilarity], result of:
              0.06573504 = score(doc=4283,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.30615672 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
  4. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.027376635 = product of:
      0.0821299 = sum of:
        0.069007315 = weight(_text_:intelligenz in 3780) [ClassicSimilarity], result of:
          0.069007315 = score(doc=3780,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.31368437 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.013122586 = product of:
          0.026245171 = sum of:
            0.026245171 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.026245171 = score(doc=3780,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  5. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.02
    0.021901308 = product of:
      0.06570392 = sum of:
        0.05520585 = weight(_text_:intelligenz in 1767) [ClassicSimilarity], result of:
          0.05520585 = score(doc=1767,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.2509475 = fieldWeight in 1767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.010498068 = product of:
          0.020996137 = sum of:
            0.020996137 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.020996137 = score(doc=1767,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  6. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.02
    0.019920697 = product of:
      0.11952418 = sum of:
        0.11952418 = weight(_text_:intelligenz in 128) [ClassicSimilarity], result of:
          0.11952418 = score(doc=128,freq=6.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.5433173 = fieldWeight in 128, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.16666667 = coord(1/6)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  7. Kuhlen, R.: Morphologische Relationen durch Reduktionsalgorithmen (1974) 0.02
    0.015338177 = product of:
      0.09202906 = sum of:
        0.09202906 = product of:
          0.18405811 = sum of:
            0.18405811 = weight(_text_:darstellung in 4251) [ClassicSimilarity], result of:
              0.18405811 = score(doc=4251,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.8572388 = fieldWeight in 4251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4251)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Footnote
    Enthält eine Darstellung des Kuhlen-Stemmers
  8. Wolfram Language erkennt Bilder (2015) 0.01
    0.013801463 = product of:
      0.08280878 = sum of:
        0.08280878 = weight(_text_:intelligenz in 1872) [ClassicSimilarity], result of:
          0.08280878 = score(doc=1872,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.37642127 = fieldWeight in 1872, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=1872)
      0.16666667 = coord(1/6)
    
    Abstract
    Wolfram Research hat seine Cloud-basierte Programmiersprache Wolfram Language um eine Funktion zur Bilderkennung erweitert. Der Hersteller des Computeralgebrasystems Mathematica und Betreiber der Wissens-Suchmaschine Wolfram Alpha hat seinem System die Erkennung von Bildern beigebracht. Mit der Funktion ImageIdentify bekommt man in Wolfram Language jetzt zu einem Bild eine symbolische Beschreibung des Inhalts, die sich in der Sprache danach sogar weiterverarbeiten lässt. Als Demo dieser Funktion dient die Website The Wolfram Language Image Identification Project: Dort kann man ein beliebiges Bild hochladen und sich das Ergebnis anschauen. Die Website speichert einen Thumbnail des hochgeladenen Bildes, sodass man einen Link zu der Ergebnisseite weitergeben kann. Wie so oft bei künstlicher Intelligenz sind die Ergebnisse manchmal lustig daneben, oft aber auch überraschend gut. Die Funktion arbeitet mit einem neuronalen Netz, das mit einigen -zig Millionen Bildern trainiert wurde und etwa 10.000 Objekte identifizieren kann.
  9. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.01
    0.013801463 = product of:
      0.08280878 = sum of:
        0.08280878 = weight(_text_:intelligenz in 2470) [ClassicSimilarity], result of:
          0.08280878 = score(doc=2470,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.37642127 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.16666667 = coord(1/6)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  10. Knorz, G.: Automatische Indexierung (1994) 0.01
    0.01314701 = product of:
      0.07888205 = sum of:
        0.07888205 = product of:
          0.1577641 = sum of:
            0.1577641 = weight(_text_:darstellung in 4254) [ClassicSimilarity], result of:
              0.1577641 = score(doc=4254,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.73477614 = fieldWeight in 4254, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4254)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Content
    Enthält eine Darstellung des Kuhlen-Knorz-Stemmers
  11. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.01
    0.01095584 = product of:
      0.06573504 = sum of:
        0.06573504 = product of:
          0.13147008 = sum of:
            0.13147008 = weight(_text_:darstellung in 4040) [ClassicSimilarity], result of:
              0.13147008 = score(doc=4040,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.61231345 = fieldWeight in 4040, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4040)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
  12. Qualität in der Inhaltserschließung (2021) 0.01
    0.009200975 = product of:
      0.05520585 = sum of:
        0.05520585 = weight(_text_:intelligenz in 753) [ClassicSimilarity], result of:
          0.05520585 = score(doc=753,freq=2.0), product of:
            0.21998964 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.038742207 = queryNorm
            0.2509475 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
      0.16666667 = coord(1/6)
    
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
  13. Krause, J.; Womser-Hacker, C.: PADOK-II : Retrievaltests zur Bewertung von Volltextindexierungsvarianten für das deutsche Patentinformationssystem (1990) 0.01
    0.008764673 = product of:
      0.052588034 = sum of:
        0.052588034 = product of:
          0.10517607 = sum of:
            0.10517607 = weight(_text_:darstellung in 2653) [ClassicSimilarity], result of:
              0.10517607 = score(doc=2653,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.48985076 = fieldWeight in 2653, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2653)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Vorgestellt werden die Ergebnisse extensiver Retrievaltests von zwei Varianten von Inhalteserschließungen (Freitext und PASSAT) für das deutsche Patentinformationssystem auf der Basis von Volltexten. Die Tests führte die Fachgruppe Linguistische Informationswissenschaft der Universität Regensburg von 1986-1989 in Zusammenarbeit mit dem Deutschen Patentamt, dem Fachinformationszentrum Karlsruhe und meheren industrieellen Partnern durch. Der Schwerpunkt des Berichts liegt auf dem allgemeinen Ansatz der Bewertung der Ziele des Projekts und auf der Darstellung der statistischen Evaluierungsergebnisse.
  14. Nohr, H.: Automatische Indexierung : Einführung in betriebliche Verfahren, Systeme und Anwendungen (2001) 0.01
    0.008764673 = product of:
      0.052588034 = sum of:
        0.052588034 = product of:
          0.10517607 = sum of:
            0.10517607 = weight(_text_:darstellung in 2543) [ClassicSimilarity], result of:
              0.10517607 = score(doc=2543,freq=8.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.48985076 = fieldWeight in 2543, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2543)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Das vorliegende Buch zur automatischen Indexierung trägt dem Umstand Rechnung, dass ein ständig wachsender Berg von Dokumenten in Unternehmen, öffentlichen Verwaltungen, Einrichtungen der Fachinformation oder dem Internet entscheidungsrelevante Informationen enthält, die mit manuellen Mitteln und Methoden kaum mehr beherrschbar und erschließbar sind. Diese unstrukturierten Informationen sind in einer zunehmend von der schnellen Verarbeitung der Ressource Information abhängigen Wirtschaft von größter Bedeutung, ihre Beherrschung ist unabdingbar für den Wettbewerbserfolg. Verfahren der automatischen Indexierung von Dokumenten sind damit eine Basistechnik der betrieblichen Informationswirtschaft geworden. Trotz dieses Urnstandes, liegt bis auf den heutigen Tag keine einführende Darstellung in die Thematik vor. Die Zielsetzung dieses Buches ist es, einführend die Grundlagen sowie die verschiedenen Ansätze und Verfahren der automatischen Indexierung von Dokumenten vorzustellen. Die Darstellung verzichtet dabei bewusst auf die allzu detaillierte Tiefendarstellung einzelner Verfahren und Indexierungssysteme zugunsten einer Übersicht der grundsätzlichen Ansätze mit ihren jeweiligen Voraussetzungen, ihren Möglichkeiten und ihren Beschränkungen. Soweit einzelne Verfahren und Indexierungssysteme behandelt werden, besitzen diese beispielhaften Charakter für den behandelten Ansatz. Bei der Darstellung war ich stets uni eine verständliche Sprache bemüht. Der Text dieses Buches ist entstanden aus Vorlesungen in entsprechenden Lehrveranstaltungen im Studiengang Informationswirtschaft an der Fachhochschule Stuttgart. Die Darstellung richtet sich an Studierende und Lehrende der Informationswirtschaft, des Informationsmanagements, der Dokumentation sowie der Wirtschaftsinformatik, zugleich aber auch an die interessierten und mit der Thernatik konfrontierten Praktiker, die weniger an der technischen Seite der automatischen Indexierung, als vielmehr einen grundsätzlichen Informationsbedarf über die Möglichkeiten und die Schwierigkeiten des Einsatzes entsprechender Verfahren haben
  15. Kuhlen, R.: Experimentelle Morphologie in der Informationswissenschaft (1977) 0.01
    0.0076690884 = product of:
      0.04601453 = sum of:
        0.04601453 = product of:
          0.09202906 = sum of:
            0.09202906 = weight(_text_:darstellung in 4253) [ClassicSimilarity], result of:
              0.09202906 = score(doc=4253,freq=2.0), product of:
                0.21471043 = queryWeight, product of:
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.038742207 = queryNorm
                0.4286194 = fieldWeight in 4253, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.542029 = idf(docFreq=470, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4253)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Footnote
    Enthält eine Darstellung des Kuhlen-Stemmers
  16. Voorhees, E.M.: Implementing agglomerative hierarchic clustering algorithms for use in document retrieval (1986) 0.01
    0.006998712 = product of:
      0.041992273 = sum of:
        0.041992273 = product of:
          0.08398455 = sum of:
            0.08398455 = weight(_text_:22 in 402) [ClassicSimilarity], result of:
              0.08398455 = score(doc=402,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.61904186 = fieldWeight in 402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=402)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Information processing and management. 22(1986) no.6, S.465-476
  17. Fuhr, N.; Niewelt, B.: ¬Ein Retrievaltest mit automatisch indexierten Dokumenten (1984) 0.01
    0.0061238734 = product of:
      0.03674324 = sum of:
        0.03674324 = product of:
          0.07348648 = sum of:
            0.07348648 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.07348648 = score(doc=262,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.5416616 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=262)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    20.10.2000 12:22:23
  18. Hlava, M.M.K.: Automatic indexing : comparing rule-based and statistics-based indexing systems (2005) 0.01
    0.0061238734 = product of:
      0.03674324 = sum of:
        0.03674324 = product of:
          0.07348648 = sum of:
            0.07348648 = weight(_text_:22 in 6265) [ClassicSimilarity], result of:
              0.07348648 = score(doc=6265,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.5416616 = fieldWeight in 6265, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6265)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Information outlook. 9(2005) no.8, S.22-23
  19. Fuhr, N.: Ranking-Experimente mit gewichteter Indexierung (1986) 0.01
    0.005249034 = product of:
      0.031494204 = sum of:
        0.031494204 = product of:
          0.06298841 = sum of:
            0.06298841 = weight(_text_:22 in 58) [ClassicSimilarity], result of:
              0.06298841 = score(doc=58,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.46428138 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=58)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Date
    14. 6.2015 22:12:44
  20. Hauer, M.: Automatische Indexierung (2000) 0.01
    0.005249034 = product of:
      0.031494204 = sum of:
        0.031494204 = product of:
          0.06298841 = sum of:
            0.06298841 = weight(_text_:22 in 5887) [ClassicSimilarity], result of:
              0.06298841 = score(doc=5887,freq=2.0), product of:
                0.1356686 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038742207 = queryNorm
                0.46428138 = fieldWeight in 5887, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5887)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Source
    Wissen in Aktion: Wege des Knowledge Managements. 22. Online-Tagung der DGI, Frankfurt am Main, 2.-4.5.2000. Proceedings. Hrsg.: R. Schmidt

Years

Languages

  • d 30
  • e 17
  • ru 1
  • More… Less…

Types

  • a 37
  • m 4
  • x 4
  • el 3
  • d 1
  • s 1
  • More… Less…