Search (7 results, page 1 of 1)

  • × type_ss:"x"
  • × theme_ss:"Automatisches Indexieren"
  1. Klinger, K.-H.: Automatische Inhaltserschließung einer Volltextdatenbank : Machbarkeitsstudie am Beispiel der FAZ (1994) 0.05
    0.05040438 = product of:
      0.10080876 = sum of:
        0.10080876 = product of:
          0.15121314 = sum of:
            0.10187021 = weight(_text_:k in 2766) [ClassicSimilarity], result of:
              0.10187021 = score(doc=2766,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.63105357 = fieldWeight in 2766, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.125 = fieldNorm(doc=2766)
            0.049342934 = weight(_text_:h in 2766) [ClassicSimilarity], result of:
              0.049342934 = score(doc=2766,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.4391927 = fieldWeight in 2766, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.125 = fieldNorm(doc=2766)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
  2. Lepsky, K.: Maschinelle Indexierung von Titelaufnahmen zur Verbesserung der sachlichen Erschließung in Online-Publikumskatalogen (1994) 0.04
    0.04178252 = product of:
      0.08356504 = sum of:
        0.08356504 = product of:
          0.12534755 = sum of:
            0.06366888 = weight(_text_:k in 7064) [ClassicSimilarity], result of:
              0.06366888 = score(doc=7064,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.39440846 = fieldWeight in 7064, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7064)
            0.06167867 = weight(_text_:h in 7064) [ClassicSimilarity], result of:
              0.06167867 = score(doc=7064,freq=8.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.5489909 = fieldWeight in 7064, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7064)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Footnote
    [Hausarbeit für den höheren Bibliotheksdienst 1993]. - Rez. in: Mitteilungsblatt VdB NW N.F. 45(1995) H.1, S.98-100 (H. Nohr); Knowledge organization 23(1996) no.1, S.50-52 (H. Schnelling)
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.18
  3. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.01
    0.008169088 = product of:
      0.016338175 = sum of:
        0.016338175 = product of:
          0.049014524 = sum of:
            0.049014524 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.049014524 = score(doc=401,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    11. 9.2012 19:43:22
  4. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.01
    0.006167867 = product of:
      0.012335734 = sum of:
        0.012335734 = product of:
          0.0370072 = sum of:
            0.0370072 = weight(_text_:h in 1221) [ClassicSimilarity], result of:
              0.0370072 = score(doc=1221,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.32939452 = fieldWeight in 1221, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1221)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
  5. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.01
    0.0061268155 = product of:
      0.012253631 = sum of:
        0.012253631 = product of:
          0.036760893 = sum of:
            0.036760893 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.036760893 = score(doc=1746,freq=2.0), product of:
                0.15835609 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045220956 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Date
    22. 3.2015 9:17:30
  6. Grün, S.: Mehrwortbegriffe und Latent Semantic Analysis : Bewertung automatisch extrahierter Mehrwortgruppen mit LSA (2017) 0.01
    0.00530574 = product of:
      0.01061148 = sum of:
        0.01061148 = product of:
          0.03183444 = sum of:
            0.03183444 = weight(_text_:k in 3954) [ClassicSimilarity], result of:
              0.03183444 = score(doc=3954,freq=2.0), product of:
                0.16142878 = queryWeight, product of:
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.045220956 = queryNorm
                0.19720423 = fieldWeight in 3954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.569778 = idf(docFreq=3384, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3954)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Die vorliegende Studie untersucht das Potenzial von Mehrwortbegriffen für das Information Retrieval. Zielsetzung der Arbeit ist es, intellektuell positiv bewertete Kandidaten mithilfe des Latent Semantic Analysis (LSA) Verfahren höher zu gewichten, als negativ bewertete Kandidaten. Die positiven Kandidaten sollen demnach bei einem Ranking im Information Retrieval bevorzugt werden. Als Kollektion wurde eine Version der sozialwissenschaftlichen GIRT-Datenbank (German Indexing and Retrieval Testdatabase) eingesetzt. Um Kandidaten für Mehrwortbegriffe zu identifizieren wurde die automatische Indexierung Lingo verwendet. Die notwendigen Kernfunktionalitäten waren Lemmatisierung, Identifizierung von Komposita, algorithmische Mehrworterkennung sowie Gewichtung von Indextermen durch das LSA-Modell. Die durch Lingo erkannten und LSAgewichteten Mehrwortkandidaten wurden evaluiert. Zuerst wurde dazu eine intellektuelle Auswahl von positiven und negativen Mehrwortkandidaten vorgenommen. Im zweiten Schritt der Evaluierung erfolgte die Berechnung der Ausbeute, um den Anteil der positiven Mehrwortkandidaten zu erhalten. Im letzten Schritt der Evaluierung wurde auf der Basis der R-Precision berechnet, wie viele positiv bewerteten Mehrwortkandidaten es an der Stelle k des Rankings geschafft haben. Die Ausbeute der positiven Mehrwortkandidaten lag bei durchschnittlich ca. 39%, während die R-Precision einen Durchschnittswert von 54% erzielte. Das LSA-Modell erzielt ein ambivalentes Ergebnis mit positiver Tendenz.
  7. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.00
    0.0020559556 = product of:
      0.004111911 = sum of:
        0.004111911 = product of:
          0.0123357335 = sum of:
            0.0123357335 = weight(_text_:h in 861) [ClassicSimilarity], result of:
              0.0123357335 = score(doc=861,freq=2.0), product of:
                0.11234917 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.045220956 = queryNorm
                0.10979818 = fieldWeight in 861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.