Search (22 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Automatisches Klassifizieren"
  1. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.02
    0.015092164 = product of:
      0.05282257 = sum of:
        0.03651177 = weight(_text_:retrieval in 611) [ClassicSimilarity], result of:
          0.03651177 = score(doc=611,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=611)
        0.0163108 = product of:
          0.0489324 = sum of:
            0.0489324 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
              0.0489324 = score(doc=611,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.38690117 = fieldWeight in 611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=611)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Date
    22. 8.2009 12:54:24
    Theme
    Klassifikationssysteme im Online-Retrieval
  2. Panyr, J.: Automatische Klassifikation und Information Retrieval : Anwendung und Entwicklung komplexer Verfahren in Information-Retrieval-Systemen und ihre Evaluierung (1986) 0.01
    0.00885179 = product of:
      0.061962526 = sum of:
        0.061962526 = weight(_text_:retrieval in 32) [ClassicSimilarity], result of:
          0.061962526 = score(doc=32,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.5671716 = fieldWeight in 32, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=32)
      0.14285715 = coord(1/7)
    
  3. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.01
    0.007376491 = product of:
      0.051635437 = sum of:
        0.051635437 = weight(_text_:retrieval in 3065) [ClassicSimilarity], result of:
          0.051635437 = score(doc=3065,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.47264296 = fieldWeight in 3065, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=3065)
      0.14285715 = coord(1/7)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  4. Panyr, J.: Vektorraum-Modell und Clusteranalyse in Information-Retrieval-Systemen (1987) 0.01
    0.0072274567 = product of:
      0.050592195 = sum of:
        0.050592195 = weight(_text_:retrieval in 2322) [ClassicSimilarity], result of:
          0.050592195 = score(doc=2322,freq=6.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.46309367 = fieldWeight in 2322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=2322)
      0.14285715 = coord(1/7)
    
    Abstract
    Ausgehend von theoretischen Indexierungsansätzen wird das klassische Vektorraum-Modell für automatische Indexierung (mit dem Trennschärfen-Modell) erläutert. Das Clustering in Information-Retrieval-Systemem wird als eine natürliche logische Folge aus diesem Modell aufgefaßt und in allen seinen Ausprägungen (d.h. als Dokumenten-, Term- oder Dokumenten- und Termklassifikation) behandelt. Anschließend werden die Suchstrategien in vorklassifizierten Dokumentenbeständen (Clustersuche) detailliert beschrieben. Zum Schluß wird noch die sinnvolle Anwendung der Clusteranalyse in Information-Retrieval-Systemen kurz diskutiert
  5. GERHARD : eine Spezialsuchmaschine für die Wissenschaft (1998) 0.01
    0.0062591606 = product of:
      0.043814123 = sum of:
        0.043814123 = weight(_text_:retrieval in 381) [ClassicSimilarity], result of:
          0.043814123 = score(doc=381,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.40105087 = fieldWeight in 381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=381)
      0.14285715 = coord(1/7)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  6. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.0060368655 = product of:
      0.021129029 = sum of:
        0.014604708 = weight(_text_:retrieval in 3284) [ClassicSimilarity], result of:
          0.014604708 = score(doc=3284,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.13368362 = fieldWeight in 3284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.00652432 = product of:
          0.01957296 = sum of:
            0.01957296 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.01957296 = score(doc=3284,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.33333334 = coord(1/3)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  7. Wätjen, H.-J.: Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web : das DFG-Projekt GERHARD (1998) 0.01
    0.0052159675 = product of:
      0.03651177 = sum of:
        0.03651177 = weight(_text_:retrieval in 3066) [ClassicSimilarity], result of:
          0.03651177 = score(doc=3066,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.33420905 = fieldWeight in 3066, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=3066)
      0.14285715 = coord(1/7)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  8. Koch, T.: Nutzung von Klassifikationssystemen zur verbesserten Beschreibung, Organisation und Suche von Internetressourcen (1998) 0.00
    0.004172774 = product of:
      0.029209416 = sum of:
        0.029209416 = weight(_text_:retrieval in 1030) [ClassicSimilarity], result of:
          0.029209416 = score(doc=1030,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 1030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=1030)
      0.14285715 = coord(1/7)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  9. Pfister, J.: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe (2006) 0.00
    0.004172774 = product of:
      0.029209416 = sum of:
        0.029209416 = weight(_text_:retrieval in 5976) [ClassicSimilarity], result of:
          0.029209416 = score(doc=5976,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.26736724 = fieldWeight in 5976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=5976)
      0.14285715 = coord(1/7)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  10. Panyr, J.: STEINADLER: ein Verfahren zur automatischen Deskribierung und zur automatischen thematischen Klassifikation (1978) 0.00
    0.003762025 = product of:
      0.026334174 = sum of:
        0.026334174 = product of:
          0.07900252 = sum of:
            0.07900252 = weight(_text_:29 in 5169) [ClassicSimilarity], result of:
              0.07900252 = score(doc=5169,freq=2.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.6218451 = fieldWeight in 5169, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=5169)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Source
    Nachrichten für Dokumentation. 29(1978), S.92-96
  11. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.00
    0.0036882455 = product of:
      0.025817718 = sum of:
        0.025817718 = weight(_text_:retrieval in 1777) [ClassicSimilarity], result of:
          0.025817718 = score(doc=1777,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23632148 = fieldWeight in 1777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
  12. Panyr, J.: Automatische thematische Textklassifikation und ihre Interpretation in der Dokumentengrobrecherche (1980) 0.00
    0.003651177 = product of:
      0.025558239 = sum of:
        0.025558239 = weight(_text_:retrieval in 100) [ClassicSimilarity], result of:
          0.025558239 = score(doc=100,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23394634 = fieldWeight in 100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=100)
      0.14285715 = coord(1/7)
    
    Abstract
    Für die automatische Erschließung natürlich-sprachlicher Dokumente in einem Informationssystem wurde ein Verfahren zur automatischen thematischen hierarchischen Klassifikation der Texte entwickelt. Die dabei gewonnene Ordnungsstruktur (Begriffsnetz) wird beim Retrieval als Recherchehilfe engeboten. Die Klassifikation erfolgt in vier Stufen: Textindexierung, Prioritätsklassenbildung, Verknüpfung der begriffe und Vernetzung der Prioritätsklassen miteinander. Die so entstandenen Wichtigkeitsstufen sind die Hierarchieebenen der Klassifikation. Die während des Clusteringverfahrens erzeugten Begriffs- und Dokumenten-Gruppierungen bilden die Knoten des Klassifikationsnetzes. Die Verknüpfung zwischen den Knoten benachbarter Prioritätsklassen repräsentieren die Netzwege in diesem Netz. Die Abbildung der Suchfrage auf dieses Begriffsnetz wird zur Relevanzbeurteilung der wiedergewonnenen Texte benutzt
  13. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.00
    0.003651177 = product of:
      0.025558239 = sum of:
        0.025558239 = weight(_text_:retrieval in 3064) [ClassicSimilarity], result of:
          0.025558239 = score(doc=3064,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23394634 = fieldWeight in 3064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3064)
      0.14285715 = coord(1/7)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  14. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.00
    0.003651177 = product of:
      0.025558239 = sum of:
        0.025558239 = weight(_text_:retrieval in 4099) [ClassicSimilarity], result of:
          0.025558239 = score(doc=4099,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.23394634 = fieldWeight in 4099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4099)
      0.14285715 = coord(1/7)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  15. Hoffmann, R.: Entwicklung einer benutzerunterstützten automatisierten Klassifikation von Web - Dokumenten : Untersuchung gegenwärtiger Methoden zur automatisierten Dokumentklassifikation und Implementierung eines Prototyps zum verbesserten Information Retrieval für das xFIND System (2002) 0.00
    0.0029505966 = product of:
      0.020654175 = sum of:
        0.020654175 = weight(_text_:retrieval in 4197) [ClassicSimilarity], result of:
          0.020654175 = score(doc=4197,freq=4.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.18905719 = fieldWeight in 4197, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=4197)
      0.14285715 = coord(1/7)
    
    Abstract
    Das unüberschaubare und permanent wachsende Angebot von Informationen im Internet ermöglicht es den Menschen nicht mehr, dieses inhaltlich zu erfassen oder gezielt nach Informationen zu suchen. Einen Lösungsweg zur verbesserten Informationsauffindung stellt hierbei die Kategorisierung bzw. Klassifikation der Informationen auf Basis ihres thematischen Inhaltes dar. Diese thematische Klassifikation kann sowohl anhand manueller (intellektueller) Methoden als auch durch automatisierte Verfahren erfolgen. Doch beide Ansätze für sich konnten die an sie gestellten Erwartungen bis zum heutigen Tag nur unzureichend erfüllen. Im Rahmen dieser Arbeit soll daher der naheliegende Ansatz, die beiden Methoden sinnvoll zu verknüpfen, untersucht werden. Im ersten Teil dieser Arbeit, dem Untersuchungsbereich, wird einleitend das Problem des Informationsüberangebots in unserer Gesellschaft erläutert und gezeigt, dass die Kategorisierung bzw. Klassifikation dieser Informationen speziell im Internet sinnvoll erscheint. Die prinzipiellen Möglichkeiten der Themenzuordnung von Dokumenten zur Verbesserung der Wissensverwaltung und Wissensauffindung werden beschrieben. Dabei werden unter anderem verschiedene Klassifikationsschemata, Topic Maps und semantische Netze vorgestellt. Schwerpunkt des Untersuchungsbereiches ist die Beschreibung automatisierter Methoden zur Themenzuordnung. Neben einem Überblick über die gebräuchlichsten Klassifikations-Algorithmen werden sowohl am Markt existierende Systeme sowie Forschungsansätze und frei verfügbare Module zur automatischen Klassifikation vorgestellt. Berücksichtigt werden auch Systeme, die zumindest teilweise den erwähnten Ansatz der Kombination von manuellen und automatischen Methoden unterstützen. Auch die in Zusammenhang mit der Klassifikation von Dokumenten im Internet auftretenden Probleme werden aufgezeigt. Die im Untersuchungsbereich gewonnenen Erkenntnisse fließen in die Entwicklung eines Moduls zur benutzerunterstützten, automatischen Dokumentklassifikation im Rahmen des xFIND Systems (extended Framework for Information Discovery) ein. Dieses an der technischen Universität Graz konzipierte Framework stellt die Basis für eine Vielzahl neuer Ideen zur Verbesserung des Information Retrieval dar. Der im Gestaltungsbereich entwickelte Lösungsansatz sieht zunächst die Verwendung bereits im System vorhandener, manuell klassifizierter Dokumente, Server oder Serverbereiche als Grundlage für die automatische Klassifikation vor. Nach erfolgter automatischer Klassifikation können in einem nächsten Schritt dann Autoren und Administratoren die Ergebnisse im Rahmen einer Benutzerunterstützung anpassen. Dabei kann das kollektive Benutzerverhalten durch die Möglichkeit eines Votings - mittels Zustimmung bzw. Ablehnung der Klassifikationsergebnisse - Einfluss finden. Das Wissen von Fachexperten und Benutzern trägt somit letztendlich zur Verbesserung der automatischen Klassifikation bei. Im Gestaltungsbereich werden die grundlegenden Konzepte, der Aufbau und die Funktionsweise des entwickelten Moduls beschrieben, sowie eine Reihe von Vorschlägen und Ideen zur Weiterentwicklung der benutzerunterstützten automatischen Dokumentklassifikation präsentiert.
  16. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.00
    0.002086387 = product of:
      0.014604708 = sum of:
        0.014604708 = weight(_text_:retrieval in 6043) [ClassicSimilarity], result of:
          0.014604708 = score(doc=6043,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.13368362 = fieldWeight in 6043, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
      0.14285715 = coord(1/7)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  17. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.00
    0.0018255885 = product of:
      0.012779119 = sum of:
        0.012779119 = weight(_text_:retrieval in 4884) [ClassicSimilarity], result of:
          0.012779119 = score(doc=4884,freq=2.0), product of:
            0.109248295 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036116153 = queryNorm
            0.11697317 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
      0.14285715 = coord(1/7)
    
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  18. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.00
    0.0016310799 = product of:
      0.011417559 = sum of:
        0.011417559 = product of:
          0.034252677 = sum of:
            0.034252677 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
              0.034252677 = score(doc=141,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.2708308 = fieldWeight in 141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=141)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Pages
    S.1-22
  19. Sommer, M.: Automatische Generierung von DDC-Notationen für Hochschulveröffentlichungen (2012) 0.00
    0.0014107594 = product of:
      0.009875315 = sum of:
        0.009875315 = product of:
          0.029625945 = sum of:
            0.029625945 = weight(_text_:29 in 587) [ClassicSimilarity], result of:
              0.029625945 = score(doc=587,freq=2.0), product of:
                0.12704533 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036116153 = queryNorm
                0.23319192 = fieldWeight in 587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=587)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    29. 1.2013 15:44:43
  20. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.00
    0.0013980685 = product of:
      0.009786479 = sum of:
        0.009786479 = product of:
          0.029359438 = sum of:
            0.029359438 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.029359438 = score(doc=3051,freq=2.0), product of:
                0.1264726 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036116153 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.33333334 = coord(1/3)
      0.14285715 = coord(1/7)
    
    Date
    22. 8.2009 19:51:28