Search (6 results, page 1 of 1)

  • × theme_ss:"Automatisches Indexieren"
  • × type_ss:"x"
  1. Siegmüller, R.: Verfahren der automatischen Indexierung in bibliotheksbezogenen Anwendungen : Funktion und Qualität (2007) 0.01
    0.008773668 = product of:
      0.043868337 = sum of:
        0.043868337 = weight(_text_:r in 1407) [ClassicSimilarity], result of:
          0.043868337 = score(doc=1407,freq=2.0), product of:
            0.14993198 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.045293134 = queryNorm
            0.29258826 = fieldWeight in 1407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0625 = fieldNorm(doc=1407)
      0.2 = coord(1/5)
    
  2. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.01
    0.0077549005 = product of:
      0.0387745 = sum of:
        0.0387745 = weight(_text_:r in 3954) [ClassicSimilarity], result of:
          0.0387745 = score(doc=3954,freq=4.0), product of:
            0.14993198 = queryWeight, product of:
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.045293134 = queryNorm
            0.25861394 = fieldWeight in 3954, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.3102584 = idf(docFreq=4387, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3954)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
  3. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.01
    0.00536553 = product of:
      0.02682765 = sum of:
        0.02682765 = weight(_text_:u in 598) [ClassicSimilarity], result of:
          0.02682765 = score(doc=598,freq=2.0), product of:
            0.14830984 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.045293134 = queryNorm
            0.1808892 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.2 = coord(1/5)
    
  4. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.0053091985 = product of:
      0.026545992 = sum of:
        0.026545992 = product of:
          0.053091984 = sum of:
            0.053091984 = weight(_text_:stand in 897) [ClassicSimilarity], result of:
              0.053091984 = score(doc=897,freq=2.0), product of:
                0.23326424 = queryWeight, product of:
                  5.1501017 = idf(docFreq=696, maxDocs=44218)
                  0.045293134 = queryNorm
                0.22760448 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.1501017 = idf(docFreq=696, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
  5. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.0049092756 = product of:
      0.024546377 = sum of:
        0.024546377 = product of:
          0.049092755 = sum of:
            0.049092755 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.049092755 = score(doc=401,freq=2.0), product of:
                0.15860884 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045293134 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    11. 9.2012 19:43:22
  6. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.00
    0.0036819566 = product of:
      0.018409783 = sum of:
        0.018409783 = product of:
          0.036819566 = sum of:
            0.036819566 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.036819566 = score(doc=1746,freq=2.0), product of:
                0.15860884 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045293134 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 3.2015 9:17:30