Search (161 results, page 1 of 9)

  • × type_ss:"el"
  • × language_ss:"d"
  1. Lusti, M.: Data Warehousing and Data Mining : Eine Einführung in entscheidungsunterstützende Systeme (1999) 0.10
    0.09796413 = product of:
      0.14694619 = sum of:
        0.11929594 = weight(_text_:data in 4261) [ClassicSimilarity], result of:
          0.11929594 = score(doc=4261,freq=14.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.7394569 = fieldWeight in 4261, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=4261)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 4261) [ClassicSimilarity], result of:
              0.055300497 = score(doc=4261,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 4261, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4261)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    17. 7.2002 19:22:06
    RSWK
    Data-warehouse-Konzept / Lehrbuch
    Data mining / Lehrbuch
    Subject
    Data-warehouse-Konzept / Lehrbuch
    Data mining / Lehrbuch
    Theme
    Data Mining
  2. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.06
    0.06094441 = product of:
      0.09141661 = sum of:
        0.06376636 = weight(_text_:data in 1679) [ClassicSimilarity], result of:
          0.06376636 = score(doc=1679,freq=4.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.3952563 = fieldWeight in 1679, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=1679)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
              0.055300497 = score(doc=1679,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Date
    13. 2.2011 20:22:23
  3. Drewer, P.; Massion, F; Pulitano, D: Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? (2017) 0.06
    0.060616564 = product of:
      0.090924844 = sum of:
        0.056362033 = weight(_text_:data in 5576) [ClassicSimilarity], result of:
          0.056362033 = score(doc=5576,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.34936053 = fieldWeight in 5576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.078125 = fieldNorm(doc=5576)
        0.03456281 = product of:
          0.06912562 = sum of:
            0.06912562 = weight(_text_:22 in 5576) [ClassicSimilarity], result of:
              0.06912562 = score(doc=5576,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.38690117 = fieldWeight in 5576, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5576)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Diese Publikation beschreibt die Zusammenhänge zwischen wissenshaltigen begriffsorientierten Terminologien, Ontologien, Big Data und künstliche Intelligenz.
    Date
    13.12.2017 14:17:22
  4. Eckert, K.: SKOS: eine Sprache für die Übertragung von Thesauri ins Semantic Web (2011) 0.05
    0.048493247 = product of:
      0.07273987 = sum of:
        0.045089625 = weight(_text_:data in 4331) [ClassicSimilarity], result of:
          0.045089625 = score(doc=4331,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.2794884 = fieldWeight in 4331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=4331)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 4331) [ClassicSimilarity], result of:
              0.055300497 = score(doc=4331,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 4331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4331)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Das Semantic Web - bzw. Linked Data - hat das Potenzial, die Verfügbarkeit von Daten und Wissen, sowie den Zugriff darauf zu revolutionieren. Einen großen Beitrag dazu können Wissensorganisationssysteme wie Thesauri leisten, die die Daten inhaltlich erschließen und strukturieren. Leider sind immer noch viele dieser Systeme lediglich in Buchform oder in speziellen Anwendungen verfügbar. Wie also lassen sie sich für das Semantic Web nutzen? Das Simple Knowledge Organization System (SKOS) bietet eine Möglichkeit, die Wissensorganisationssysteme in eine Form zu "übersetzen", die im Web zitiert und mit anderen Resourcen verknüpft werden kann.
    Date
    15. 3.2011 19:21:22
  5. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.05
    0.048493247 = product of:
      0.07273987 = sum of:
        0.045089625 = weight(_text_:data in 251) [ClassicSimilarity], result of:
          0.045089625 = score(doc=251,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.2794884 = fieldWeight in 251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=251)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.055300497 = score(doc=251,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 5.2021 12:43:05
    Source
    Open Password. 2021, Nr.947 vom 14.07.2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzMxOCwiNjczMmIwMzRlMDdmIiwwLDAsMjg4LDFd]
  6. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.05
    0.048493247 = product of:
      0.07273987 = sum of:
        0.045089625 = weight(_text_:data in 318) [ClassicSimilarity], result of:
          0.045089625 = score(doc=318,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.2794884 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.055300497 = score(doc=318,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 5.2021 12:43:05
    Source
    Open Password. 2021, Nr.925 vom 21.05.2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzI5NSwiZDdlZGY4MTk0NWJhIiwwLDAsMjY1LDFd]
  7. Schrenk, P.: Gesamtnote 1 für Signal - Telegram-Defizite bei Sicherheit und Privatsphäre : Signal und Telegram im Test (2022) 0.05
    0.048493247 = product of:
      0.07273987 = sum of:
        0.045089625 = weight(_text_:data in 486) [ClassicSimilarity], result of:
          0.045089625 = score(doc=486,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.2794884 = fieldWeight in 486, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=486)
        0.027650248 = product of:
          0.055300497 = sum of:
            0.055300497 = weight(_text_:22 in 486) [ClassicSimilarity], result of:
              0.055300497 = score(doc=486,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.30952093 = fieldWeight in 486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=486)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 1.2022 14:01:14
    Source
    Open Password. 2022, Nr. 1019 vom 21.01.2022 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM5OSwiYzgwMjA2ZDE4ZWExIiwwLDAsMzYxLDFd]
  8. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.04
    0.04406157 = product of:
      0.06609236 = sum of:
        0.04881095 = weight(_text_:data in 330) [ClassicSimilarity], result of:
          0.04881095 = score(doc=330,freq=6.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.30255508 = fieldWeight in 330, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.017281406 = product of:
          0.03456281 = sum of:
            0.03456281 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.03456281 = score(doc=330,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.19345059 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.
    Content
    Vgl. auch Teil I: Open Password. 2021, Nr.946 vom 12. Juli 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzMxNSwiM2MwMDJhZWIwZDQ0IiwwLDAsMjg1LDFd].
    Source
    Open Password. 2021, Nr.949 vom 19. Juli 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzMxNywiMTFhMWNiMzkzYzUyIiwwLDAsMjg3LDFd]
  9. Stumpf, G.: "Kerngeschäft" Sacherschließung in neuer Sicht : was gezielte intellektuelle Arbeit und maschinelle Verfahren gemeinsam bewirken können (2015) 0.04
    0.042431593 = product of:
      0.06364739 = sum of:
        0.03945342 = weight(_text_:data in 1703) [ClassicSimilarity], result of:
          0.03945342 = score(doc=1703,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.24455236 = fieldWeight in 1703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1703)
        0.024193967 = product of:
          0.048387934 = sum of:
            0.048387934 = weight(_text_:22 in 1703) [ClassicSimilarity], result of:
              0.048387934 = score(doc=1703,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.2708308 = fieldWeight in 1703, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Als "Kerngeschäft" des bibliothekarischen Berufsbildes ist die Sacherschließung starken Veränderungen unterworfen; als Kern des Metadatenangebots ist ein intellektueller Input unverzichtbar, gerade weil mit maschinellen Verfahren sehr viel Mehrwert daraus generiert werden kann. In dem Vortrag wird versucht, aus allgemeiner Perspektive den funktionellen Mehrwert der Sacherschließung zu beleuchten. Das Zusammenwirken der intellektuellen Erschließung und verschiedener Formen automatischer Metadatenerzeugung und -vermehrung muss neu justiert und standardisiert werden. Besondere Bedeutung haben Normdaten mit ihrem Potenzial für die Linked-Data-Welt; zugleich muss aber auch die Datenbasis für die durch Suchmaschinentechnologie geprägten Rechercheumgebungen quantitativ verbreitert und qualitativ aufgewertet werden.
    Content
    Es handelt sich um den leicht überarbeiteten Text eines Vortrags bei der VDB-Fortbildungsveranstaltung "Wandel als Konstante: neue Aufgaben und Herausforderungen für sozialwissenschaftliche Bibliotheken" am 22./23. Januar 2015 in Berlin.
  10. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.04
    0.042431593 = product of:
      0.06364739 = sum of:
        0.03945342 = weight(_text_:data in 252) [ClassicSimilarity], result of:
          0.03945342 = score(doc=252,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.24455236 = fieldWeight in 252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.024193967 = product of:
          0.048387934 = sum of:
            0.048387934 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.048387934 = score(doc=252,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 5.2021 12:43:05
    Source
    Open Password. 2021, Nr.935 vom 16.06.2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzMwNSwiMjNiZDFkOWY4Nzg5IiwwLDAsMjc1LDFd]
  11. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.04
    0.041965406 = product of:
      0.06294811 = sum of:
        0.039853975 = weight(_text_:data in 3206) [ClassicSimilarity], result of:
          0.039853975 = score(doc=3206,freq=4.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.24703519 = fieldWeight in 3206, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3206)
        0.02309413 = product of:
          0.04618826 = sum of:
            0.04618826 = weight(_text_:processing in 3206) [ClassicSimilarity], result of:
              0.04618826 = score(doc=3206,freq=2.0), product of:
                0.20653816 = queryWeight, product of:
                  4.048147 = idf(docFreq=2097, maxDocs=44218)
                  0.051020417 = queryNorm
                0.22363065 = fieldWeight in 3206, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.048147 = idf(docFreq=2097, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3206)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
  12. ¬Das große Lexikon 2001 (2000) 0.04
    0.037197046 = product of:
      0.11159113 = sum of:
        0.11159113 = weight(_text_:data in 5240) [ClassicSimilarity], result of:
          0.11159113 = score(doc=5240,freq=4.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.69169855 = fieldWeight in 5240, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.109375 = fieldNorm(doc=5240)
      0.33333334 = coord(1/3)
    
    Imprint
    Düsseldorf : Data Becker
    Object
    Große Data Becker Lexikon
  13. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.04
    0.036369935 = product of:
      0.054554902 = sum of:
        0.033817217 = weight(_text_:data in 266) [ClassicSimilarity], result of:
          0.033817217 = score(doc=266,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.2096163 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.020737685 = product of:
          0.04147537 = sum of:
            0.04147537 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.04147537 = score(doc=266,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 5.2021 12:43:05
    Source
    Open Password. 2021, Nr.928 vom 31.05.2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzI5OSwiMjc2N2ZlZjQwMDUwIiwwLDAsMjY4LDFd]
  14. Jäger, L.: Von Big Data zu Big Brother (2018) 0.04
    0.03524926 = product of:
      0.052873887 = sum of:
        0.03904876 = weight(_text_:data in 5234) [ClassicSimilarity], result of:
          0.03904876 = score(doc=5234,freq=6.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.24204408 = fieldWeight in 5234, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.03125 = fieldNorm(doc=5234)
        0.013825124 = product of:
          0.027650248 = sum of:
            0.027650248 = weight(_text_:22 in 5234) [ClassicSimilarity], result of:
              0.027650248 = score(doc=5234,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.15476047 = fieldWeight in 5234, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5234)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 1.2018 11:33:49
    Source
    https://www.heise.de/tp/features/Von-Big-Data-zu-Big-Brother-3946125.html?view=print
    Theme
    Data Mining
  15. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.04
    0.03508041 = product of:
      0.052620612 = sum of:
        0.028181016 = weight(_text_:data in 4399) [ClassicSimilarity], result of:
          0.028181016 = score(doc=4399,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.17468026 = fieldWeight in 4399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.024439598 = product of:
          0.048879195 = sum of:
            0.048879195 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.048879195 = score(doc=4399,freq=4.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.27358043 = fieldWeight in 4399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 3.2011 18:22:29
    Footnote
    Original unter: http://openbiblio.net/principles/ (Open Bibliography and Open Bibliographic Data)
  16. ¬Das große Data Becker Lexikon (1995) 0.03
    0.032540634 = product of:
      0.0976219 = sum of:
        0.0976219 = weight(_text_:data in 5368) [ClassicSimilarity], result of:
          0.0976219 = score(doc=5368,freq=6.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.60511017 = fieldWeight in 5368, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.078125 = fieldNorm(doc=5368)
      0.33333334 = coord(1/3)
    
    Imprint
    Düsseldorf : Data Becker
    Object
    Große Data Becker Lexikon
  17. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.03
    0.030308282 = product of:
      0.045462422 = sum of:
        0.028181016 = weight(_text_:data in 3780) [ClassicSimilarity], result of:
          0.028181016 = score(doc=3780,freq=2.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.17468026 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.017281406 = product of:
          0.03456281 = sum of:
            0.03456281 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.03456281 = score(doc=3780,freq=2.0), product of:
                0.1786648 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051020417 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  18. Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017) 0.03
    0.030059751 = product of:
      0.09017925 = sum of:
        0.09017925 = weight(_text_:data in 4076) [ClassicSimilarity], result of:
          0.09017925 = score(doc=4076,freq=8.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.5589768 = fieldWeight in 4076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=4076)
      0.33333334 = coord(1/3)
    
    Abstract
    Der vorliegende Beitrag beschäftigt sich mit den Rahmenbedingungen für analytische Anwendungen wie Big Data, die durch das neue europäische Datenschutzrecht entstehen, insbesondere durch die EU-Datenschutz-Grundverordnung. Er stellt wesentliche Neuerungen vor und untersucht die spezifischen datenschutzrechtlichen Regelungen im Hinblick auf den Einsatz von Big Data sowie Voraussetzungen, die durch die Verordnung abverlangt werden.
    Theme
    Data Mining
  19. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.03
    0.026032507 = product of:
      0.07809752 = sum of:
        0.07809752 = weight(_text_:data in 2568) [ClassicSimilarity], result of:
          0.07809752 = score(doc=2568,freq=6.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.48408815 = fieldWeight in 2568, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=2568)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
    Source
    https://login.mailingwork.de/public/a_5668_LVrTK/file/data/1125_Textanalyse_Christian-Bauckhage.pdf
    Theme
    Data Mining
  20. Gross, D.: Maschinelle Bilderkennung mit Big Data und Deep Learning (2017) 0.03
    0.026032507 = product of:
      0.07809752 = sum of:
        0.07809752 = weight(_text_:data in 3726) [ClassicSimilarity], result of:
          0.07809752 = score(doc=3726,freq=6.0), product of:
            0.16132914 = queryWeight, product of:
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.051020417 = queryNorm
            0.48408815 = fieldWeight in 3726, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1620505 = idf(docFreq=5088, maxDocs=44218)
              0.0625 = fieldNorm(doc=3726)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Arbeit mit unstrukturierten Daten dient gerne als Paradebeispiel für Big Data, weil die technologischen Möglichkeiten das Speichern und Verarbeiten großer Datenmengen erlauben und die Mehrheit dieser Daten unstrukturiert ist. Allerdings ist im Zusammenhang mit unstrukturierten Daten meist von der Analyse und der Extraktion von Informationen aus Texten die Rede. Viel weniger hingegen wird das Thema der Bildanalyse thematisiert. Diese gilt aber nach wie vor als eine Königdisziplin der modernen Computerwissenschaft.
    Source
    https://jaxenter.de/big-data-bildanalyse-50313

Years

Types

  • a 88
  • i 11
  • m 6
  • r 3
  • b 1
  • p 1
  • s 1
  • x 1
  • More… Less…