Search (5 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"x"
  1. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.05
    0.047364518 = product of:
      0.14209355 = sum of:
        0.14209355 = product of:
          0.21314032 = sum of:
            0.17193863 = weight(_text_:ermittelt in 401) [ClassicSimilarity], result of:
              0.17193863 = score(doc=401,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.63229424 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
            0.041201692 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.041201692 = score(doc=401,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.6666667 = coord(2/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein Bericht über die Ergebnisse und die Prozessanalyse einer automatischen Indexierung mit Mehrwortgruppen. Diese Bachelorarbeit beschreibt, inwieweit der Inhalt informationswissenschaftlicher Fachtexte durch informationswissenschaftliches Fachvokabular erschlossen werden kann und sollte und dass in diesen wissenschaftlichen Texten ein Großteil der fachlichen Inhalte in Mehrwortgruppen vorkommt. Die Ergebnisse wurden durch eine automatische Indexierung mit Mehrwortgruppen mithilfe des Programme Lingo an einer informationswissenschaftlichen Datenbank ermittelt.
    Date
    11. 9.2012 19:43:22
  2. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.013508774 = product of:
      0.040526323 = sum of:
        0.040526323 = product of:
          0.12157897 = sum of:
            0.12157897 = weight(_text_:ermittelt in 897) [ClassicSimilarity], result of:
              0.12157897 = score(doc=897,freq=4.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.44709954 = fieldWeight in 897, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  3. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.01
    0.011940183 = product of:
      0.035820547 = sum of:
        0.035820547 = product of:
          0.10746164 = sum of:
            0.10746164 = weight(_text_:ermittelt in 318) [ClassicSimilarity], result of:
              0.10746164 = score(doc=318,freq=2.0), product of:
                0.2719282 = queryWeight, product of:
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.038012814 = queryNorm
                0.3951839 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.1535926 = idf(docFreq=93, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=318)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
  4. Nicoletti, M.: Automatische Indexierung (2001) 0.01
    0.006929282 = product of:
      0.020787846 = sum of:
        0.020787846 = product of:
          0.06236354 = sum of:
            0.06236354 = weight(_text_:29 in 4326) [ClassicSimilarity], result of:
              0.06236354 = score(doc=4326,freq=2.0), product of:
                0.1337172 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038012814 = queryNorm
                0.46638384 = fieldWeight in 4326, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4326)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    29. 9.2017 12:00:04
  5. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.00
    0.0034334743 = product of:
      0.010300423 = sum of:
        0.010300423 = product of:
          0.030901268 = sum of:
            0.030901268 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.030901268 = score(doc=1746,freq=2.0), product of:
                0.1331144 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038012814 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 3.2015 9:17:30