Search (19 results, page 1 of 1)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Automatisches Indexieren"
  1. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.09
    0.09011483 = product of:
      0.18022966 = sum of:
        0.02412958 = product of:
          0.09651832 = sum of:
            0.09651832 = weight(_text_:technischer in 3780) [ClassicSimilarity], result of:
              0.09651832 = score(doc=3780,freq=2.0), product of:
                0.25407422 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.036947623 = queryNorm
                0.3798824 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.25 = coord(1/4)
        0.04017131 = weight(_text_:gesellschaft in 3780) [ClassicSimilarity], result of:
          0.04017131 = score(doc=3780,freq=2.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.24507684 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.040901694 = weight(_text_:entwicklung in 3780) [ClassicSimilarity], result of:
          0.040901694 = score(doc=3780,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.24729475 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.07502707 = sum of:
          0.04999761 = weight(_text_:zukunft in 3780) [ClassicSimilarity], result of:
            0.04999761 = score(doc=3780,freq=2.0), product of:
              0.1828649 = queryWeight, product of:
                4.949301 = idf(docFreq=851, maxDocs=44218)
                0.036947623 = queryNorm
              0.27341282 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.949301 = idf(docFreq=851, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
          0.025029464 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
            0.025029464 = score(doc=3780,freq=2.0), product of:
              0.12938428 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.036947623 = queryNorm
              0.19345059 = fieldWeight in 3780, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3780)
      0.5 = coord(4/8)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  2. Schulz, K.U.; Brunner, L.: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze (2017) 0.01
    0.014059958 = product of:
      0.112479664 = sum of:
        0.112479664 = weight(_text_:gesellschaft in 3493) [ClassicSimilarity], result of:
          0.112479664 = score(doc=3493,freq=8.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.6862151 = fieldWeight in 3493, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3493)
      0.125 = coord(1/8)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  3. Böhm, A.; Seifert, C.; Schlötterer, J.; Granitzer, M.: Identifying tweets from the economic domain (2017) 0.01
    0.014059958 = product of:
      0.112479664 = sum of:
        0.112479664 = weight(_text_:gesellschaft in 3495) [ClassicSimilarity], result of:
          0.112479664 = score(doc=3495,freq=8.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.6862151 = fieldWeight in 3495, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3495)
      0.125 = coord(1/8)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  4. Kempf, A.O.: Neue Verfahrenswege der Wissensorganisation : eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation (2017) 0.01
    0.014059958 = product of:
      0.112479664 = sum of:
        0.112479664 = weight(_text_:gesellschaft in 3497) [ClassicSimilarity], result of:
          0.112479664 = score(doc=3497,freq=8.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.6862151 = fieldWeight in 3497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3497)
      0.125 = coord(1/8)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  5. Malits, A.; Schäuble, P.: ¬Der Digitale Assistent : halbautomatisches Verfahren der Sacherschließung in der Zentralbibliothek Zürich (2014) 0.01
    0.0071577965 = product of:
      0.057262372 = sum of:
        0.057262372 = weight(_text_:entwicklung in 2562) [ClassicSimilarity], result of:
          0.057262372 = score(doc=2562,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.34621266 = fieldWeight in 2562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2562)
      0.125 = coord(1/8)
    
    Abstract
    Seit Juni 2013 ist der Digitale As­sistent in den Workflow der Erschließungsprozesse der Zentralbibliothek Zürich integriert. Das System des Di­gitalen Assistenten kombiniert automatisch unterstützte Prozesse und intellektuelle Sacherschließung: Es werden Schlagwortvorschläge generiert, die danach intellektuell von den Fachreferenten überprüft werden. Im vorliegenden Beitrag wird die Entwicklung des Digitalen Assis­tenten im Kontext der Praxis der Sacherschließung im Allgemeinen und in der Zentralbibliothek Zürich im Speziellen skizziert. Im Anschluss werden die unterschied­lichen Prozesse der Datenverarbeitung des Systems näher erläutert, sodann wird auf Basis von Statistiken ein erstes Resümee gezogen. Ausführungen zu technischen Spezifikationen runden den Bericht ab.
  6. Beckmann, R.; Hinrichs, I.; Janßen, M.; Milmeister, G.; Schäuble, P.: ¬Der Digitale Assistent DA-3 : Eine Plattform für die Inhaltserschließung (2019) 0.01
    0.006135254 = product of:
      0.049082033 = sum of:
        0.049082033 = weight(_text_:entwicklung in 5408) [ClassicSimilarity], result of:
          0.049082033 = score(doc=5408,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.2967537 = fieldWeight in 5408, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.046875 = fieldNorm(doc=5408)
      0.125 = coord(1/8)
    
    Abstract
    Der "Digitale Assistent" DA-3 ist ein webbasiertes Tool zur maschinellen Unterstützung der intellektuellen verbalen und klassifikatorischen Inhaltserschließung. Im Frühjahr 2016 wurde einer breiteren Fachöffentlichkeit die zunächst für den Einsatz im IBS|BW-Konsortium konzipierte Vorgängerversion DA-2 vorgestellt. Die Community nahm die Entwicklung vor dem Hintergrund der strategischen Diskussionen um zukunftsfähige Verfahren der Inhaltserschließung mit großem Interesse auf. Inzwischen wird das Tool in einem auf drei Jahre angelegten Kooperationsprojekt zwischen der Firma Eurospider Information Technology, dem IBS|BW-Konsortium, der Staatsbibliothek zu Berlin und den beiden Verbundzentralen VZG und BSZ zu einem zentralen und leistungsstarken Service weiterentwickelt. Die ersten Anwenderbibliotheken in SWB und GBV setzen den DA-3 während dieser Projektphase bereits erfolgreich ein, am Ende ist die Überführung in den Routinebetrieb vorgesehen. Der Beitrag beschreibt den derzeitigen Stand und Nutzen des Projekts im Kontext der aktuellen Rahmenbedingungen, stellt ausführlich die Funktionalitäten des DA-3 vor, gibt einen kleinen Einblick hinter die Kulissen der Projektpartner und einen Ausblick auf kommende Entwicklungsschritte.
  7. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.01
    0.0057843733 = product of:
      0.046274986 = sum of:
        0.046274986 = weight(_text_:entwicklung in 3081) [ClassicSimilarity], result of:
          0.046274986 = score(doc=3081,freq=4.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.2797821 = fieldWeight in 3081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
      0.125 = coord(1/8)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
  8. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.01
    0.005112712 = product of:
      0.040901694 = sum of:
        0.040901694 = weight(_text_:entwicklung in 598) [ClassicSimilarity], result of:
          0.040901694 = score(doc=598,freq=2.0), product of:
            0.16539653 = queryWeight, product of:
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.036947623 = queryNorm
            0.24729475 = fieldWeight in 598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4765134 = idf(docFreq=1366, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.125 = coord(1/8)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  9. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.00
    0.004017131 = product of:
      0.032137047 = sum of:
        0.032137047 = weight(_text_:gesellschaft in 4051) [ClassicSimilarity], result of:
          0.032137047 = score(doc=4051,freq=2.0), product of:
            0.16391313 = queryWeight, product of:
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.036947623 = queryNorm
            0.19606146 = fieldWeight in 4051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4363647 = idf(docFreq=1422, maxDocs=44218)
              0.03125 = fieldNorm(doc=4051)
      0.125 = coord(1/8)
    
  10. Hauer, M.: Tiefenindexierung im Bibliothekskatalog : 17 Jahre intelligentCAPTURE (2019) 0.00
    0.0037544195 = product of:
      0.030035356 = sum of:
        0.030035356 = product of:
          0.060070712 = sum of:
            0.060070712 = weight(_text_:22 in 5629) [ClassicSimilarity], result of:
              0.060070712 = score(doc=5629,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.46428138 = fieldWeight in 5629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5629)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    B.I.T.online. 22(2019) H.2, S.163-166
  11. Kempf, A.O.: Automatische Indexierung in der sozialwissenschaftlichen Fachinformation : eine Evaluationsstudie zur maschinellen Erschließung für die Datenbank SOLIS (2012) 0.00
    0.0037498206 = product of:
      0.029998565 = sum of:
        0.029998565 = product of:
          0.05999713 = sum of:
            0.05999713 = weight(_text_:zukunft in 903) [ClassicSimilarity], result of:
              0.05999713 = score(doc=903,freq=2.0), product of:
                0.1828649 = queryWeight, product of:
                  4.949301 = idf(docFreq=851, maxDocs=44218)
                  0.036947623 = queryNorm
                0.32809538 = fieldWeight in 903, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.949301 = idf(docFreq=851, maxDocs=44218)
                  0.046875 = fieldNorm(doc=903)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Automatische Indexierungsverfahren werden mit Zunahme der digitalen Verfügbarkeit von Metadaten und Volltexten mehr und mehr als eine mögliche Antwort auf das Management unstrukturierter Daten diskutiert. In der sozialwissenschaftlichen Fachinformation existiert in diesem Zusammenhang seit einiger Zeit der Vorschlag eines sogenannten Schalenmodells (vgl. Krause, 1996) mit unterschiedlichen Qualitätsstufen bei der inhaltlichen Erschließung. Vor diesem Hintergrund beschreibt die Arbeit zunächst Methoden und Verfahren der inhaltlichen und automatischen Indexierung, bevor vier Testläufe eines automatischen Indexierungssystems (MindServer) zur automatischen Erschließung von Datensätzen der bibliographischen Literaturdatenbank SOLIS mit Deskriptoren des Thesaurus Sozialwissenschaften sowie der Klassifikation Sozialwissenschaften beschrieben und analysiert werden. Es erfolgt eine ausführliche Fehleranalyse mit Beispielen sowie eine abschließende Diskussion, inwieweit die automatische Erschließung in dieser Form für die Randbereiche der Datenbank SOLIS für die Zukunft einen gangbaren Weg darstellt.
  12. Stankovic, R. et al.: Indexing of textual databases based on lexical resources : a case study for Serbian (2016) 0.00
    0.003128683 = product of:
      0.025029464 = sum of:
        0.025029464 = product of:
          0.050058927 = sum of:
            0.050058927 = weight(_text_:22 in 2759) [ClassicSimilarity], result of:
              0.050058927 = score(doc=2759,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.38690117 = fieldWeight in 2759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2759)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    1. 2.2016 18:25:22
  13. Glaesener, L.: Automatisches Indexieren einer informationswissenschaftlichen Datenbank mit Mehrwortgruppen (2012) 0.00
    0.0025029464 = product of:
      0.020023571 = sum of:
        0.020023571 = product of:
          0.040047143 = sum of:
            0.040047143 = weight(_text_:22 in 401) [ClassicSimilarity], result of:
              0.040047143 = score(doc=401,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.30952093 = fieldWeight in 401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=401)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    11. 9.2012 19:43:22
  14. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.00
    0.0021900781 = product of:
      0.017520625 = sum of:
        0.017520625 = product of:
          0.03504125 = sum of:
            0.03504125 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.03504125 = score(doc=5195,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  15. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.00
    0.0021900781 = product of:
      0.017520625 = sum of:
        0.017520625 = product of:
          0.03504125 = sum of:
            0.03504125 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.03504125 = score(doc=5344,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  16. Busch, D.: Domänenspezifische hybride automatische Indexierung von bibliographischen Metadaten (2019) 0.00
    0.0018772098 = product of:
      0.015017678 = sum of:
        0.015017678 = product of:
          0.030035356 = sum of:
            0.030035356 = weight(_text_:22 in 5628) [ClassicSimilarity], result of:
              0.030035356 = score(doc=5628,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.23214069 = fieldWeight in 5628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5628)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    B.I.T.online. 22(2019) H.6, S.465-469
  17. Martins, A.L.; Souza, R.R.; Ribeiro de Mello, H.: ¬The use of noun phrases in information retrieval : proposing a mechanism for automatic classification (2014) 0.00
    0.0012514732 = product of:
      0.010011786 = sum of:
        0.010011786 = product of:
          0.020023571 = sum of:
            0.020023571 = weight(_text_:22 in 1441) [ClassicSimilarity], result of:
              0.020023571 = score(doc=1441,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.15476047 = fieldWeight in 1441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1441)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  18. Mesquita, L.A.P.; Souza, R.R.; Baracho Porto, R.M.A.: Noun phrases in automatic indexing: : a structural analysis of the distribution of relevant terms in doctoral theses (2014) 0.00
    0.0012514732 = product of:
      0.010011786 = sum of:
        0.010011786 = product of:
          0.020023571 = sum of:
            0.020023571 = weight(_text_:22 in 1442) [ClassicSimilarity], result of:
              0.020023571 = score(doc=1442,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.15476047 = fieldWeight in 1442, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1442)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  19. Greiner-Petter, A.; Schubotz, M.; Cohl, H.S.; Gipp, B.: Semantic preserving bijective mappings for expressions involving special functions between computer algebra systems and document preparation systems (2019) 0.00
    0.0012514732 = product of:
      0.010011786 = sum of:
        0.010011786 = product of:
          0.020023571 = sum of:
            0.020023571 = weight(_text_:22 in 5499) [ClassicSimilarity], result of:
              0.020023571 = score(doc=5499,freq=2.0), product of:
                0.12938428 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036947623 = queryNorm
                0.15476047 = fieldWeight in 5499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5499)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Date
    20. 1.2015 18:30:22