Search (12 results, page 1 of 1)

  • × theme_ss:"Automatisches Klassifizieren"
  • × language_ss:"d"
  1. Reiner, U.: Automatische DDC-Klassifizierung von bibliografischen Titeldatensätzen (2009) 0.06
    0.061923105 = product of:
      0.12384621 = sum of:
        0.12384621 = sum of:
          0.0531215 = weight(_text_:online in 611) [ClassicSimilarity], result of:
            0.0531215 = score(doc=611,freq=2.0), product of:
              0.15842392 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.05220068 = queryNorm
              0.33531237 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
          0.07072471 = weight(_text_:22 in 611) [ClassicSimilarity], result of:
            0.07072471 = score(doc=611,freq=2.0), product of:
              0.18279788 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05220068 = queryNorm
              0.38690117 = fieldWeight in 611, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=611)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 12:54:24
    Theme
    Klassifikationssysteme im Online-Retrieval
  2. Wätjen, H.-J.: Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web : das DFG-Projekt GERHARD (1998) 0.02
    0.018781288 = product of:
      0.037562575 = sum of:
        0.037562575 = product of:
          0.07512515 = sum of:
            0.07512515 = weight(_text_:online in 3066) [ClassicSimilarity], result of:
              0.07512515 = score(doc=3066,freq=4.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.47420335 = fieldWeight in 3066, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3066)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Vortrag auf der 20. Online-Tagung der Deutschen Gesellschaft für Dokumentation, 5.-7.5.1998. Session 3: WWW-Suchmaschinen
    Theme
    Klassifikationssysteme im Online-Retrieval
  3. GERHARD : eine Spezialsuchmaschine für die Wissenschaft (1998) 0.02
    0.015936451 = product of:
      0.031872902 = sum of:
        0.031872902 = product of:
          0.063745804 = sum of:
            0.063745804 = weight(_text_:online in 381) [ClassicSimilarity], result of:
              0.063745804 = score(doc=381,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.40237486 = fieldWeight in 381, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=381)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  4. Wätjen, H.-J.; Diekmann, B.; Möller, G.; Carstensen, K.-U.: Bericht zum DFG-Projekt: GERHARD : German Harvest Automated Retrieval and Directory (1998) 0.01
    0.013280375 = product of:
      0.02656075 = sum of:
        0.02656075 = product of:
          0.0531215 = sum of:
            0.0531215 = weight(_text_:online in 3065) [ClassicSimilarity], result of:
              0.0531215 = score(doc=3065,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.33531237 = fieldWeight in 3065, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3065)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  5. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.01
    0.0131469015 = product of:
      0.026293803 = sum of:
        0.026293803 = product of:
          0.052587606 = sum of:
            0.052587606 = weight(_text_:online in 4099) [ClassicSimilarity], result of:
              0.052587606 = score(doc=4099,freq=4.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.33194235 = fieldWeight in 4099, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4099)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  6. Bock, H.-H.: Datenanalyse zur Strukturierung und Ordnung von Information (1989) 0.01
    0.012376824 = product of:
      0.024753649 = sum of:
        0.024753649 = product of:
          0.049507298 = sum of:
            0.049507298 = weight(_text_:22 in 141) [ClassicSimilarity], result of:
              0.049507298 = score(doc=141,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2708308 = fieldWeight in 141, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=141)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Pages
    S.1-22
  7. Koch, T.: Nutzung von Klassifikationssystemen zur verbesserten Beschreibung, Organisation und Suche von Internetressourcen (1998) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 1030) [ClassicSimilarity], result of:
              0.0424972 = score(doc=1030,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  8. Pfeffer, M.: Automatische Vergabe von RVK-Notationen mittels fallbasiertem Schließen (2009) 0.01
    0.010608707 = product of:
      0.021217413 = sum of:
        0.021217413 = product of:
          0.042434826 = sum of:
            0.042434826 = weight(_text_:22 in 3051) [ClassicSimilarity], result of:
              0.042434826 = score(doc=3051,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.23214069 = fieldWeight in 3051, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3051)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 8.2009 19:51:28
  9. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.01
    0.009296263 = product of:
      0.018592525 = sum of:
        0.018592525 = product of:
          0.03718505 = sum of:
            0.03718505 = weight(_text_:online in 3064) [ClassicSimilarity], result of:
              0.03718505 = score(doc=3064,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.23471867 = fieldWeight in 3064, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3064)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Klassifikationssysteme im Online-Retrieval
  10. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.01
    0.0079682255 = product of:
      0.015936451 = sum of:
        0.015936451 = product of:
          0.031872902 = sum of:
            0.031872902 = weight(_text_:online in 1410) [ClassicSimilarity], result of:
              0.031872902 = score(doc=1410,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.20118743 = fieldWeight in 1410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1410)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In der vorliegenden Arbeit werden die Möglichkeiten für eine Automatisierung des Klassifizierens von Online Dokumenten evaluiert und ein mögliches Verfahren prototypisch implementiert. Dabei werden Verfahren der Terminologieextraktion angewandt, um die Sinnträger der Texte zu ermitteln. Klassifikationen, die im Allg. nur wenige weiterführende Informationen enthalten, sollen über einen Mapping Mechanismus auf die das Dokument beschreibenden Terme angewandt werden. Im Ansatz wird bereits sichtbar, dass es keine rein automatische Klassifikation geben kann, da es immer einen Bruch zwischen den intellektuell erstellten Klassifikationen und den aus den Texten generierten Informationen geben wird. Es wird ein semiautomatisches Verfahren vorgestellt, das durch Anwenderaktionen lernt und zu einer sukzessiven Automatisierung führen kann. Die Ergebnisse der semiautomatischen Klassifizierung werden mit denen einer manuellen verglichen. Im Anschluss wird ein Ausblick auf Möglichkeiten und Grenzen der automatischen Klassifikation gegeben.
  11. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.01
    0.007512515 = product of:
      0.01502503 = sum of:
        0.01502503 = product of:
          0.03005006 = sum of:
            0.03005006 = weight(_text_:online in 4051) [ClassicSimilarity], result of:
              0.03005006 = score(doc=4051,freq=4.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.18968134 = fieldWeight in 4051, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4051)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
    Mit der Anfang 2010 begonnen Implementierung und Ergebnisevaluierung des automatischen Indexierungsverfahrens "Decisiv Categorization" der Firma Recommind soll das hier skizzierte Informationsstrukturierungsproblem in zwei Schritten gelöst werden. Kurz- bis mittelfristig soll die intellektuelle Indexierung durch ein semiautomatisches Verfahren6 unterstützt werden. Mittel- bis langfristig soll das maschinelle Verfahren, aufbauend auf einem entsprechenden Training, in die Lage versetzt werden, sowohl im Hause vorliegende Dokumente vollautomatisch zu indexieren als auch ZBW-fremde digitale Informationsressourcen zu verschlagworten bzw. zu klassifizieren, um sie in einem gemeinsamen Suchraum auffindbar machen zu können. Im Anschluss an diese Einleitung werden die ersten Ansätze maschineller Sacherschließung an der ZBW (2001-2004) und deren Ergebnisse und Problemlagen aufgezeigt. Danach werden die Rahmenbedingungen (Projektauftrag und -ziel) für eine Wiederaufnahme des Vorhabens im Jahre 2009 aufgezeigt, gefolgt von einer Darstellung der Funktionsweise der Recommind-Technologie und deren Einsatz im Rahmen der Sacherschließung von Online-Dokumenten mit einem Thesaurus. Schwerpunkt dieser Abhandlung bilden im Anschluss daran die Evaluierungsmöglichkeiten automatischer Indexierungsansätze sowie die aktuellen Ergebnisse und zentralen Erkenntnisse des Einsatzes im Kontext der ZBW. Das Fazit beschreibt die entsprechenden Schlussfolgerungen aus den erzielten Ergebnissen sowie den Ausblick auf das weitere Vorgehen.
  12. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.007072471 = product of:
      0.014144942 = sum of:
        0.014144942 = product of:
          0.028289884 = sum of:
            0.028289884 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.028289884 = score(doc=3284,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 1.2010 14:41:24