Search (187 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986) 0.13
    0.1335364 = product of:
      0.2003046 = sum of:
        0.08438047 = weight(_text_:g in 2051) [ClassicSimilarity], result of:
          0.08438047 = score(doc=2051,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 2051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=2051)
        0.11592412 = sum of:
          0.04257532 = weight(_text_:von in 2051) [ClassicSimilarity], result of:
            0.04257532 = score(doc=2051,freq=2.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.35372335 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
          0.0733488 = weight(_text_:22 in 2051) [ClassicSimilarity], result of:
            0.0733488 = score(doc=2051,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.46428138 = fieldWeight in 2051, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.09375 = fieldNorm(doc=2051)
      0.6666667 = coord(2/3)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Frage der Konzeption von Rankingalgorithmen auf Grundlage gewichteter Indexierung mittels statistischer Verfahren.
    Date
    14. 6.2015 22:12:56
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  2. Biebricher, N.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬The automatic indexing system AIR/PHYS : from research to application (1988) 0.09
    0.086670235 = product of:
      0.13000534 = sum of:
        0.099443346 = weight(_text_:g in 1952) [ClassicSimilarity], result of:
          0.099443346 = score(doc=1952,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.5868668 = fieldWeight in 1952, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=1952)
        0.030562 = product of:
          0.061124 = sum of:
            0.061124 = weight(_text_:22 in 1952) [ClassicSimilarity], result of:
              0.061124 = score(doc=1952,freq=2.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.38690117 = fieldWeight in 1952, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1952)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    16. 8.1998 12:51:22
  3. Biebricher, P.; Fuhr, N.; Lustig, G.; Schwantner, M.; Knorz, G.: ¬Das automatische Indexierungssystem AIR/PHYS (1988) 0.08
    0.07812204 = product of:
      0.11718306 = sum of:
        0.099443346 = weight(_text_:g in 528) [ClassicSimilarity], result of:
          0.099443346 = score(doc=528,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.5868668 = fieldWeight in 528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=528)
        0.017739717 = product of:
          0.035479434 = sum of:
            0.035479434 = weight(_text_:von in 528) [ClassicSimilarity], result of:
              0.035479434 = score(doc=528,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.29476947 = fieldWeight in 528, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=528)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  4. Peters, G.: Verschlagwortung und automatische Verfahren in der G+J Dokumentation (2003) 0.08
    0.07812204 = product of:
      0.11718306 = sum of:
        0.099443346 = weight(_text_:g in 2377) [ClassicSimilarity], result of:
          0.099443346 = score(doc=2377,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.5868668 = fieldWeight in 2377, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=2377)
        0.017739717 = product of:
          0.035479434 = sum of:
            0.035479434 = weight(_text_:von in 2377) [ClassicSimilarity], result of:
              0.035479434 = score(doc=2377,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.29476947 = fieldWeight in 2377, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2377)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand des Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg. Günter Peters berichtete unter anderem über das System DocCat, dem er eine erhebliche Kompetenz attestierte.
  5. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.07
    0.07212053 = product of:
      0.1081808 = sum of:
        0.08438047 = weight(_text_:g in 6386) [ClassicSimilarity], result of:
          0.08438047 = score(doc=6386,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.023800327 = product of:
          0.047600653 = sum of:
            0.047600653 = weight(_text_:von in 6386) [ClassicSimilarity], result of:
              0.047600653 = score(doc=6386,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.39547473 = fieldWeight in 6386, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  6. Salton, G.: Future prospects for text-based information retrieval (1990) 0.07
    0.07044542 = product of:
      0.10566813 = sum of:
        0.08438047 = weight(_text_:g in 2327) [ClassicSimilarity], result of:
          0.08438047 = score(doc=2327,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 2327, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=2327)
        0.02128766 = product of:
          0.04257532 = sum of:
            0.04257532 = weight(_text_:von in 2327) [ClassicSimilarity], result of:
              0.04257532 = score(doc=2327,freq=2.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.35372335 = fieldWeight in 2327, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2327)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen: Proc. des 1. Int. Symposiums für Informationswissenschaft, Universität Konstanz, 17.-19.10.1990. Hrsg.: J. Herget u. R. Kuhlen
  7. Salton, G.; McGill, M. J.: Information Retrieval: Grundlegendes für Informationswissenschaftler (1987) 0.07
    0.067362115 = product of:
      0.101043165 = sum of:
        0.07031707 = weight(_text_:g in 8648) [ClassicSimilarity], result of:
          0.07031707 = score(doc=8648,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 8648, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=8648)
        0.030726094 = product of:
          0.061452188 = sum of:
            0.061452188 = weight(_text_:von in 8648) [ClassicSimilarity], result of:
              0.061452188 = score(doc=8648,freq=6.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.51055574 = fieldWeight in 8648, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=8648)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Enthält die Kapitel: Information Retrieval: eine Einführung; Invertierte Dateisysteme; Textanalyse und automatisches Indexieren; Die experimentellen Retrievalsysteme SMART und SIRE; Die Bewertung von Retrievalsystemen; Fortgeschrittene Retrievaltechniken; Verarbeitung natürlicher Sprache; Informationstechnologie: Hardware und Software; Datenbankmanagementsysteme; Zukünftige Entwicklungen im Information Retrieval
    Issue
    Übers. von W. von Keitz
  8. Gaese, V.: "Automatische Klassifikation von Presseartikeln in der Gruner + Jahr Dokumentation" (2003) 0.06
    0.062908866 = product of:
      0.094363295 = sum of:
        0.07307564 = weight(_text_:g in 1915) [ClassicSimilarity], result of:
          0.07307564 = score(doc=1915,freq=6.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.43125728 = fieldWeight in 1915, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=1915)
        0.02128766 = product of:
          0.04257532 = sum of:
            0.04257532 = weight(_text_:von in 1915) [ClassicSimilarity], result of:
              0.04257532 = score(doc=1915,freq=8.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.35372335 = fieldWeight in 1915, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1915)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Das Klassifizieren von Texten, auch Indexieren, inhaltliches Erschließen oder verschlagworten genannt, gehört seit jeher zu den zwar notwendigen aber sehr aufwändigen Aufgaben von Archiven bzw. Dokumentationen. Ihre unterschiedlichen Zwecke bzw. Anforderungen sind sicher ein Grund dafür, dass es fast ebenso viele Erschließungsinventare, Thesauri oder Schlagwortverzeichnisse wie Dokumentationen gibt. Im folgenden werden Klassifizierung, Indexierung, Erschließung und Verschlagwortung synonym verwendet. In der G+J Dokumentation arbeiten heute ca. 20 Dokumentare an Auswahl und Erschließung von täglich etwa 1.100 Artikeln aus insgesamt ca. 210 Titeln. In der G+J Pressedatenbank sind aktuell ca. 7 Mio Artikel gespeichert, gut 2 Mio als digitaler Volltext (OCR/Satzdaten). Archiviert sind nur Artikel, für die die G+J Dokumentation die entsprechenden Rechte hat.
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.06
    0.060100447 = product of:
      0.09015067 = sum of:
        0.07031707 = weight(_text_:g in 5863) [ClassicSimilarity], result of:
          0.07031707 = score(doc=5863,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.019833606 = product of:
          0.03966721 = sum of:
            0.03966721 = weight(_text_:von in 5863) [ClassicSimilarity], result of:
              0.03966721 = score(doc=5863,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.32956228 = fieldWeight in 5863, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  10. Lustig, G.: Automatische Indexierung : Erfahrungen und Perspektiven (1989) 0.05
    0.053889684 = product of:
      0.08083452 = sum of:
        0.05625365 = weight(_text_:g in 2323) [ClassicSimilarity], result of:
          0.05625365 = score(doc=2323,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 2323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=2323)
        0.024580874 = product of:
          0.049161747 = sum of:
            0.049161747 = weight(_text_:von in 2323) [ClassicSimilarity], result of:
              0.049161747 = score(doc=2323,freq=6.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.40844458 = fieldWeight in 2323, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2323)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Es wird zunächst ein "ideales Information-Retrieval-System" beschrieben und diskutiert. Als Kernproblem für -selbst bescheidene - Entwicklungen in die dadurch aufgezeigte Richtung wird das "Verstehen" von Texten durch den Computer angesehen, wobei je nach der Aufgabenstellung einer Systemkomponente stets nur ein partielles Verstehen erforderlich ist. Ein relativ einfaches, aber keineswegs triviales Beispiel dieser Art ist die automatische Indexierung von Referatetexten bei vorgegebenen Deskriptorensystem. Von diesem Problem werden Ansätze, Ergebnisse und Erfahrungen mitgeteilt. Darauf aufbauend werden weitere Forschungsrichtungen und Entwicklungsmöglichkeiten mitgeteilt
  11. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.05
    0.049812436 = product of:
      0.074718654 = sum of:
        0.059666008 = weight(_text_:g in 4) [ClassicSimilarity], result of:
          0.059666008 = score(doc=4,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.35212007 = fieldWeight in 4, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=4)
        0.015052649 = product of:
          0.030105298 = sum of:
            0.030105298 = weight(_text_:von in 4) [ClassicSimilarity], result of:
              0.030105298 = score(doc=4,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.2501202 = fieldWeight in 4, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  12. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.04
    0.04452225 = product of:
      0.06678337 = sum of:
        0.049221944 = weight(_text_:g in 953) [ClassicSimilarity], result of:
          0.049221944 = score(doc=953,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 953, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=953)
        0.017561423 = product of:
          0.035122845 = sum of:
            0.035122845 = weight(_text_:von in 953) [ClassicSimilarity], result of:
              0.035122845 = score(doc=953,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.29180688 = fieldWeight in 953, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=953)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Editor
    Lustig, G.
  13. Dreis, G.: Formen des sachlichen Zugriffs : Probleme des automatischen Indexierens (1991) 0.04
    0.03977734 = product of:
      0.119332016 = sum of:
        0.119332016 = weight(_text_:g in 2995) [ClassicSimilarity], result of:
          0.119332016 = score(doc=2995,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.70424014 = fieldWeight in 2995, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=2995)
      0.33333334 = coord(1/3)
    
    Source
    Der Online-Publikumskatalog der Universitätsbibliothek Düsseldorf: methodische Erkenntnisse und Erfahrungen, OPAC-Kolloquium am 27. u.28.11.1989. Hrsg.: G. Gattermann
  14. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.04
    0.039083984 = product of:
      0.058625974 = sum of:
        0.035158534 = weight(_text_:g in 366) [ClassicSimilarity], result of:
          0.035158534 = score(doc=366,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.20748875 = fieldWeight in 366, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=366)
        0.023467442 = product of:
          0.046934884 = sum of:
            0.046934884 = weight(_text_:von in 366) [ClassicSimilarity], result of:
              0.046934884 = score(doc=366,freq=14.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.3899434 = fieldWeight in 366, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=366)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
  15. Salton, G.; McGill, M. J.: Introduction to modern information retrieval (1983) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 2328) [ClassicSimilarity], result of:
          0.1125073 = score(doc=2328,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 2328, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=2328)
      0.33333334 = coord(1/3)
    
  16. ¬The smart retrieval system : experiments in automatic document processing (1971) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 2330) [ClassicSimilarity], result of:
          0.1125073 = score(doc=2330,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 2330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=2330)
      0.33333334 = coord(1/3)
    
    Editor
    Salton, G.
  17. Research and development in information retrieval : Proc., Berlin, 18.-20.5.1982 (1983) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 2332) [ClassicSimilarity], result of:
          0.1125073 = score(doc=2332,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 2332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=2332)
      0.33333334 = coord(1/3)
    
    Editor
    Salton, G.; Schneider, H.-J.
  18. Salton, G.; Wong, A.: Generation and search of clustered files (1978) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 2411) [ClassicSimilarity], result of:
          0.1125073 = score(doc=2411,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 2411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=2411)
      0.33333334 = coord(1/3)
    
  19. Lustig, G.: Ist die automatische Indexierung bereits anwendbar? (1969) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 4998) [ClassicSimilarity], result of:
          0.1125073 = score(doc=4998,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 4998, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=4998)
      0.33333334 = coord(1/3)
    
  20. Salton, G.; Yang, C.S.: On the specification of term values in automatic indexing (1973) 0.04
    0.037502434 = product of:
      0.1125073 = sum of:
        0.1125073 = weight(_text_:g in 5476) [ClassicSimilarity], result of:
          0.1125073 = score(doc=5476,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.663964 = fieldWeight in 5476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.125 = fieldNorm(doc=5476)
      0.33333334 = coord(1/3)
    

Languages

  • d 126
  • e 55
  • f 2
  • a 1
  • chi 1
  • m 1
  • ru 1
  • More… Less…

Types

  • a 138
  • x 24
  • el 19
  • m 12
  • s 7
  • d 1
  • p 1
  • r 1
  • More… Less…