Search (653 results, page 1 of 33)

  • × year_i:[2020 TO 2030}
  1. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.28
    0.27940413 = product of:
      0.6985103 = sum of:
        0.033713423 = weight(_text_:des in 31) [ClassicSimilarity], result of:
          0.033713423 = score(doc=31,freq=6.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.42396194 = fieldWeight in 31, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.5667245 = sum of:
          0.040320672 = weight(_text_:f in 31) [ClassicSimilarity], result of:
            0.040320672 = score(doc=31,freq=2.0), product of:
              0.11445078 = queryWeight, product of:
                3.985786 = idf(docFreq=2232, maxDocs=44218)
                0.028714733 = queryNorm
              0.35229704 = fieldWeight in 31, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.985786 = idf(docFreq=2232, maxDocs=44218)
                0.0625 = fieldNorm(doc=31)
          0.24132156 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
            0.24132156 = score(doc=31,freq=2.0), product of:
              0.27999672 = queryWeight, product of:
                9.7509775 = idf(docFreq=6, maxDocs=44218)
                0.028714733 = queryNorm
              0.8618728 = fieldWeight in 31, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                9.7509775 = idf(docFreq=6, maxDocs=44218)
                0.0625 = fieldNorm(doc=31)
          0.28508225 = weight(_text_:bcr in 31) [ClassicSimilarity], result of:
            0.28508225 = score(doc=31,freq=2.0), product of:
              0.30432665 = queryWeight, product of:
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.028714733 = queryNorm
              0.936764 = fieldWeight in 31, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                10.598275 = idf(docFreq=2, maxDocs=44218)
                0.0625 = fieldNorm(doc=31)
        0.08044052 = product of:
          0.24132156 = sum of:
            0.24132156 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.24132156 = score(doc=31,freq=2.0), product of:
                0.27999672 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.028714733 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.017631862 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.017631862 = score(doc=31,freq=4.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
      0.4 = coord(4/10)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.09
    0.093796566 = product of:
      0.18759313 = sum of:
        0.03800551 = product of:
          0.114016525 = sum of:
            0.114016525 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.114016525 = score(doc=1000,freq=2.0), product of:
                0.24344383 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028714733 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.017204309 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.017204309 = score(doc=1000,freq=4.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.013496583 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.013496583 = score(doc=1000,freq=6.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.114016525 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.114016525 = score(doc=1000,freq=2.0), product of:
            0.24344383 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028714733 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0048702103 = product of:
          0.01461063 = sum of:
            0.01461063 = weight(_text_:online in 1000) [ClassicSimilarity], result of:
              0.01461063 = score(doc=1000,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.16765618 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
      0.5 = coord(5/10)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.04
    0.036524177 = product of:
      0.12174725 = sum of:
        0.012165283 = weight(_text_:des in 374) [ClassicSimilarity], result of:
          0.012165283 = score(doc=374,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.15298408 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.023376767 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.023376767 = score(doc=374,freq=18.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.0862052 = sum of:
          0.01461063 = weight(_text_:online in 374) [ClassicSimilarity], result of:
            0.01461063 = score(doc=374,freq=2.0), product of:
              0.08714639 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.028714733 = queryNorm
              0.16765618 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.05214232 = weight(_text_:kataloge in 374) [ClassicSimilarity], result of:
            0.05214232 = score(doc=374,freq=2.0), product of:
              0.1646304 = queryWeight, product of:
                5.733308 = idf(docFreq=388, maxDocs=44218)
                0.028714733 = queryNorm
              0.31672353 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.733308 = idf(docFreq=388, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.01945225 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
            0.01945225 = score(doc=374,freq=2.0), product of:
              0.1005541 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028714733 = queryNorm
              0.19345059 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
      0.3 = coord(3/10)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Series
    Bibliotheks- und Informationspraxis; 70
    Theme
    Verbale Doksprachen im Online-Retrieval
  4. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.04
    0.03648529 = product of:
      0.18242644 = sum of:
        0.04560661 = product of:
          0.13681982 = sum of:
            0.13681982 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.13681982 = score(doc=862,freq=2.0), product of:
                0.24344383 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028714733 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.13681982 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13681982 = score(doc=862,freq=2.0), product of:
            0.24344383 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028714733 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2 = coord(2/10)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  5. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.03
    0.027958421 = product of:
      0.06989605 = sum of:
        0.029499246 = weight(_text_:des in 42) [ClassicSimilarity], result of:
          0.029499246 = score(doc=42,freq=6.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.3709667 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.011760197 = product of:
          0.03528059 = sum of:
            0.03528059 = weight(_text_:f in 42) [ClassicSimilarity], result of:
              0.03528059 = score(doc=42,freq=2.0), product of:
                0.11445078 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.028714733 = queryNorm
                0.3082599 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.33333334 = coord(1/3)
        0.021818316 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.021818316 = score(doc=42,freq=8.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.34282678 = fieldWeight in 42, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.0068182945 = product of:
          0.020454884 = sum of:
            0.020454884 = weight(_text_:online in 42) [ClassicSimilarity], result of:
              0.020454884 = score(doc=42,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.23471867 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
    Source
    B.I.T. Online. 23(2020) H.2, S.138-148
  6. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.03
    0.025351252 = product of:
      0.08450417 = sum of:
        0.020645168 = weight(_text_:des in 299) [ClassicSimilarity], result of:
          0.020645168 = score(doc=299,freq=4.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.25962257 = fieldWeight in 299, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.028052121 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.028052121 = score(doc=299,freq=18.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.035806887 = product of:
          0.053710327 = sum of:
            0.03036763 = weight(_text_:online in 299) [ClassicSimilarity], result of:
              0.03036763 = score(doc=299,freq=6.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.34846687 = fieldWeight in 299, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
            0.023342699 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.023342699 = score(doc=299,freq=2.0), product of:
                0.1005541 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028714733 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.6666667 = coord(2/3)
      0.3 = coord(3/10)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  7. Rötzer, F.: Droht bei einer Verschmelzung des Gehirns mit KI der Verlust des Bewusstseins? (2020) 0.02
    0.02431378 = product of:
      0.081045926 = sum of:
        0.04866113 = weight(_text_:des in 5699) [ClassicSimilarity], result of:
          0.04866113 = score(doc=5699,freq=8.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.61193633 = fieldWeight in 5699, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
        0.01680028 = product of:
          0.050400842 = sum of:
            0.050400842 = weight(_text_:f in 5699) [ClassicSimilarity], result of:
              0.050400842 = score(doc=5699,freq=2.0), product of:
                0.11445078 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.028714733 = queryNorm
                0.4403713 = fieldWeight in 5699, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5699)
          0.33333334 = coord(1/3)
        0.015584512 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
          0.015584512 = score(doc=5699,freq=2.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.24487628 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
      0.3 = coord(3/10)
    
    Abstract
    Die Philosophin und Kognitionswissenschaftlerin Susan Schneider führt ungelöste Probleme für die Implantation von Chips im Gehirn zur kognitiven Optimierung an.
    Source
    https://www.heise.de/tp/features/Droht-bei-einer-Verschmelzung-des-Gehirns-mit-KI-der-Verlust-des-Bewusstseins-4654834.html?wt_mc=nl.tp-aktuell.woechentlich
  8. Colombi, C.: Bibliothekarische Fachsystematiken am Deutschen Archäologischen Institut : 180 Jahre Wissensordnung (2023) 0.02
    0.022542296 = product of:
      0.07514098 = sum of:
        0.02408603 = weight(_text_:des in 999) [ClassicSimilarity], result of:
          0.02408603 = score(doc=999,freq=4.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.302893 = fieldWeight in 999, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
        0.02672187 = weight(_text_:und in 999) [ClassicSimilarity], result of:
          0.02672187 = score(doc=999,freq=12.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.41987535 = fieldWeight in 999, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=999)
        0.02433308 = product of:
          0.07299924 = sum of:
            0.07299924 = weight(_text_:kataloge in 999) [ClassicSimilarity], result of:
              0.07299924 = score(doc=999,freq=2.0), product of:
                0.1646304 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.028714733 = queryNorm
                0.4434129 = fieldWeight in 999, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=999)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Seit 1836 werden bibliothekarische Titel an der Abteilung Rom des Deutschen Archäologischen Instituts inhaltlich erschlossen. Die hierfür entwickelten Systematiken zeugen von der Entstehung der Klassischen Archäologie als Disziplin und von der Geschichte der bibliothekarischen Klassifikation. Die systematischen Kataloge und die Fachbibliographien des Deutschen Archäologischen Instituts werden vorgestellt und ihre Entstehung kontextualisiert. Die Unterschiede zwischen den einzelnen Katalogen und den Bibliographien dienen als Ausgangspunkt, um die Anpassungsstrategien der Klassifikation an die Fortschritte der Forschung und der Technologie zu untersuchen. Der Abgleich mit dem Publikationsaufkommen ermöglicht zudem Bemerkungen zu den Änderungen in der Systematik.
    Source
    Information - Wissenschaft und Praxis. 74(2023) H.2/3, S.172-178
  9. Grundlagen der Informationswissenschaft (2023) 0.02
    0.018599663 = product of:
      0.046499155 = sum of:
        0.010322584 = weight(_text_:des in 1043) [ClassicSimilarity], result of:
          0.010322584 = score(doc=1043,freq=4.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.12981129 = fieldWeight in 1043, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.0123456335 = product of:
          0.0370369 = sum of:
            0.0370369 = weight(_text_:f in 1043) [ClassicSimilarity], result of:
              0.0370369 = score(doc=1043,freq=12.0), product of:
                0.11445078 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.028714733 = queryNorm
                0.32360548 = fieldWeight in 1043, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1043)
          0.33333334 = coord(1/3)
        0.020908816 = weight(_text_:und in 1043) [ClassicSimilarity], result of:
          0.020908816 = score(doc=1043,freq=40.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.328536 = fieldWeight in 1043, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.0029221266 = product of:
          0.008766379 = sum of:
            0.008766379 = weight(_text_:online in 1043) [ClassicSimilarity], result of:
              0.008766379 = score(doc=1043,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.100593716 = fieldWeight in 1043, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1043)
          0.33333334 = coord(1/3)
      0.4 = coord(4/10)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /
    Kirsten Schlebbe & Elke Greifeneder: D 5 Information Need, Informationsbedarf und -bedürfnis - 543 / Dirk Lewandowski & Christa Womser-Hacker: D 6 Information Seeking Behaviour - 553 / Wolfgang Semar: D 7 Informations- und Wissensmanagement - 567 / Joachim Griesbaum: D 8 Informationskompetenz - 581 / Antje Michel, Maria Gäde, Anke Wittich & Inka Tappenbeck: D 9 Informationsdidaktik - 595 / Rainer Kuhlen: E 1 Informationsmarkt - 605 / Wolfgang Semar: E 2 Plattformökonomie - 621 / Tassilo Pellegrini & Jan Krone: E 3 Medienökonomie - 633 / Christoph Bläsi: E 4 Verlage in Wissenschaft und Bildung - 643 / Irina Sens, Alexander Pöche, Dana Vosberg, Judith Ludwig & Nicola Bieg: E 5 Lizenzierungsformen - 655 / Joachim Griesbaum: E 6 Online-Marketing - 667 / Frauke Schade & Ursula Georgy: E 7 Marketing für Informationseinrichtungen - 679 / Isabella Peters: E 8 Social Media & Social Web - 691 / Klaus Tochtermann & Anna Maria Höfler: E 9 Open Science - 703 / Ulrich Herb & Heinz Pampel: E 10 Open Access - 715 / Tobias Siebenlist: E 11 Open Data - 727 / Sigrid Fahrer & Tamara Heck: E 12 Open Educational Resources - 735 / Tobias Siebenlist: E 13 Open Government - 745 / Herrmann Rösch: F 1 Informationsethik - 755 / Bernard Bekavac: F 2 Informations-, Kommunikationstechnologien- und Webtechnologien - 773 / Peter Brettschneider: F 3 Urheberrecht - 789 / Johannes Caspar: F 4 Datenschutz und Informationsfreiheit - 803 / Norman Meuschke, Nicole Walger & Bela Gipp: F 5 Plagiat - 817 / Rainer Kuhlen: F 6 Informationspathologien - Desinformation - 829 / Glossar
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043. Rez. in: o-bib. 10(2023), H.2 (A. Oßwald) [https://www.o-bib.de/bib/article/view/5934/8904]; Bibliothek: Forschung und Praxis. 47(2023) H.2, S.415-417 (D. Weisbrod) [https://www.degruyter.com/document/doi/10.1515/bfp-2023-0031/html].
  10. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.02
    0.018357212 = product of:
      0.061190702 = sum of:
        0.03800551 = product of:
          0.114016525 = sum of:
            0.114016525 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.114016525 = score(doc=5669,freq=2.0), product of:
                0.24344383 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028714733 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.012165283 = weight(_text_:des in 5669) [ClassicSimilarity], result of:
          0.012165283 = score(doc=5669,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.15298408 = fieldWeight in 5669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.0110199135 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.0110199135 = score(doc=5669,freq=4.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.3 = coord(3/10)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  11. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.02
    0.01796856 = product of:
      0.0598952 = sum of:
        0.034408618 = weight(_text_:des in 72) [ClassicSimilarity], result of:
          0.034408618 = score(doc=72,freq=16.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.43270433 = fieldWeight in 72, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.02061637 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.02061637 = score(doc=72,freq=14.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.32394084 = fieldWeight in 72, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.0048702103 = product of:
          0.01461063 = sum of:
            0.01461063 = weight(_text_:online in 72) [ClassicSimilarity], result of:
              0.01461063 = score(doc=72,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.16765618 = fieldWeight in 72, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=72)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
    Issue
    Online: 19.08.2020.
  12. Kempf, K.; Brantl, M.; Meiers, T.; Wolf, T.: Auf der Suche nach dem verborgenen Bild : Künstliche Intelligenz erschließt historische Bibliotheksbestände (2021) 0.02
    0.016784925 = product of:
      0.055949748 = sum of:
        0.029196678 = weight(_text_:des in 218) [ClassicSimilarity], result of:
          0.029196678 = score(doc=218,freq=8.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.36716178 = fieldWeight in 218, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.020908816 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.020908816 = score(doc=218,freq=10.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.005844253 = product of:
          0.017532758 = sum of:
            0.017532758 = weight(_text_:online in 218) [ClassicSimilarity], result of:
              0.017532758 = score(doc=218,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.20118743 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Seit 23 Jahren werden im Münchener Digitalisierungszentrum (MDZ) die reichhaltigen und weltweit einzigartigen Sammlungen der Bayerischen Staatsbibliothek (BSB) digitalisiert und online bereitgestellt. Was 1997 als experimentelles Projekt mit Anschubfinanzierung der Deutschen Forschungsgemeinschaft begann, ist binnen weniger Jahre zu einem der wichtigsten Geschäftsgänge der Bayerischen Staatsbibliothek geworden. Durch die Zusammenarbeit mit Google wurde der digitale Bestandsaufbau seitdem Jahr 2007 stark erweitert. Die Anzahl der digitalisierten Werke stieg von einigen zehntausend auf aktuell über 2,5 Millionen. Der größte Teil des Altbestandes vor 1900 und damit rund ein Zehntel des Gesamtbestandes der Bibliothek ist inzwischen auch in digitaler Form verfügbar. Dabei handelt es sich um Werke aus zwölf Jahrhunderten. Von koptischen Papyri des 6. Jahrhunderts über mittelalterliche Handschriften, neuzeitliche Inkunabeln bis hin zu Druckwerken des späten 19. und frühen 20. Jahrhunderts ist alles dabei.
    Issue
    Teil 1: Die Motivation, die Herausforderungen, Automatisierte Trennung von Texten und Bildern.
  13. Behrens, R.: RNAB Vokabulare veröffentlicht (2022) 0.02
    0.016760692 = product of:
      0.05586897 = sum of:
        0.025285069 = weight(_text_:des in 804) [ClassicSimilarity], result of:
          0.025285069 = score(doc=804,freq=6.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.31797147 = fieldWeight in 804, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=804)
        0.024739645 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.024739645 = score(doc=804,freq=14.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.38872904 = fieldWeight in 804, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=804)
        0.005844253 = product of:
          0.017532758 = sum of:
            0.017532758 = weight(_text_:online in 804) [ClassicSimilarity], result of:
              0.017532758 = score(doc=804,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.20118743 = fieldWeight in 804, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=804)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Mailtext: "Die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, eine Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten in Archiven und Bibliotheken (RNAB)" vorzulegen. Die vorliegende Fassung ist identisch mit jener im Februar 2022 veröffentlichten Version 1.1, enthält aber an den betreffenden Stellen den Hinweis darauf, dass die jeweils aktuellsten Versionen der kontrollierten Vokabulare und des Glossars online abzurufen sind. Sie finden die aktuelle Fassung der Version 1.1 der RNAB und der kontrollierten Vokabulare und des Glossars unter https://www.dnb.de/rnab auf der Website der Deutschen Nationalbibliothek. Der Standardisierungsausschuss hat der neuen Form der Veröffentlichung der aktualisierten Vokabulare zugestimmt. Ein besonderer Dank geht an das Redaktionsteam der RNAB, Martin Wedl vom Literaturarchiv der Österreichischen Nationalbibliothek, Ralf Breslau von der Staatsbibliothek zu Berlin und Rudolf Probst vom Literaturarchiv der Schweizerischen Nationalbibliothek sowie an Thomas Stern von der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden und Jörn Hasenclever von der Deutschen Nationalbibliothek, Deutsches Exilarchiv, die neu zum Redaktionsteam hinzugekommen sind.."
  14. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.02
    0.016540563 = product of:
      0.05513521 = sum of:
        0.019464452 = weight(_text_:des in 868) [ClassicSimilarity], result of:
          0.019464452 = score(doc=868,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.24477452 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.027878422 = weight(_text_:und in 868) [ClassicSimilarity], result of:
          0.027878422 = score(doc=868,freq=10.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.438048 = fieldWeight in 868, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=868)
        0.0077923364 = product of:
          0.023377009 = sum of:
            0.023377009 = weight(_text_:online in 868) [ClassicSimilarity], result of:
              0.023377009 = score(doc=868,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.2682499 = fieldWeight in 868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=868)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
  15. Heisig, P.: Informationswissenschaft für Wissensmanager : Was Wissensmanager von der informationswissenschaftlichen Forschung lernen können (2021) 0.02
    0.016432261 = product of:
      0.054774202 = sum of:
        0.019464452 = weight(_text_:des in 223) [ClassicSimilarity], result of:
          0.019464452 = score(doc=223,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.24477452 = fieldWeight in 223, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=223)
        0.024935218 = weight(_text_:und in 223) [ClassicSimilarity], result of:
          0.024935218 = score(doc=223,freq=8.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.39180204 = fieldWeight in 223, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=223)
        0.010374533 = product of:
          0.031123599 = sum of:
            0.031123599 = weight(_text_:22 in 223) [ClassicSimilarity], result of:
              0.031123599 = score(doc=223,freq=2.0), product of:
                0.1005541 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028714733 = queryNorm
                0.30952093 = fieldWeight in 223, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=223)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Die Informationswissenschaften und das Wissensmanagement weisen zahlreiche Gemeinsamkeiten auf und Anknüpfungspunkte für gemeinsamen Forschungen. Praktiker des Wissensmanagements sollten die Forschungsergebnisse der Schwesterdisziplin eingehender studieren, um für Ihre Organisationspraxis relevante Ergebnisse berücksichtigen zu können. Es ist zu wünschen, dass durch einen gemeinsamen Forschungsdialog potenzielle Synergien für Forschung und Praxis zukünftig erschlossen werden.
    Date
    22. 1.2021 14:38:21
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.1, S.10-18
  16. Scheidler, F.: ¬ Der Stoff, aus dem wir sind : warum wir Natur und Gesellschaft neu denken müssen (2021) 0.02
    0.016349763 = product of:
      0.05449921 = sum of:
        0.019464452 = weight(_text_:des in 342) [ClassicSimilarity], result of:
          0.019464452 = score(doc=342,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.24477452 = fieldWeight in 342, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=342)
        0.013440224 = product of:
          0.040320672 = sum of:
            0.040320672 = weight(_text_:f in 342) [ClassicSimilarity], result of:
              0.040320672 = score(doc=342,freq=2.0), product of:
                0.11445078 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.028714733 = queryNorm
                0.35229704 = fieldWeight in 342, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=342)
          0.33333334 = coord(1/3)
        0.021594534 = weight(_text_:und in 342) [ClassicSimilarity], result of:
          0.021594534 = score(doc=342,freq=6.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.33931053 = fieldWeight in 342, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=342)
      0.3 = coord(3/10)
    
    Abstract
    Ökologische Krise und Klimachaos bedrohen die Zukunft der Menschheit. Eine der Ursachen dafür ist ein technokratisches Weltbild, das die Natur zu einer beherrschbaren Ressource in der Hand des Menschen degradiert. Fabian Scheidler zeigt in einer faszinierenden Reise durch die Geschichte der Wissenschaften, dass diese Auffassung der Natur ein tödlicher Irrtum ist. Mit einem überraschenden neuen Blick auf das Leben, die Wissenschaft und uns selbst eröffnet dieses Buch Perspektiven für einen tiefgreifenden gesellschaftlichen Wandel.
  17. Griesbaum, J.; März, S.; Woltermann, T.: Wie man Fake News und eigene Vorurteile überwindet : Die Pandemie trifft die Armen, die Bildungswilligen und die ländlichen Räume am Schlimmsten. "Intercultural Perspectives on Information Literacy": Ein deutsch-indischer Vergleich (2021) 0.02
    0.016152617 = product of:
      0.053842053 = sum of:
        0.024330566 = weight(_text_:des in 217) [ClassicSimilarity], result of:
          0.024330566 = score(doc=217,freq=8.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.30596817 = fieldWeight in 217, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.024641277 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.024641277 = score(doc=217,freq=20.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.3871834 = fieldWeight in 217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.0048702103 = product of:
          0.01461063 = sum of:
            0.01461063 = weight(_text_:online in 217) [ClassicSimilarity], result of:
              0.01461063 = score(doc=217,freq=2.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.16765618 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Die Online-Tagung im Rahmen des transnationalen Projektkurses "Intercultural perspectives on information literacy" wurde von Professor Dr. Joachim Griesbaum (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Tessy Thadathil (Symbiosis College of Arts and Commerce Pune, Indien), Sophie März (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Jini M. Jacob (Symbiosis College of Arts and Commerce Pune, Indien) und Theresia Woltermann (Stiftung Universität Hildesheim, Institut für Informationswissenschaft) organisiert. Der Einladung nach Hildesheim folgten rund 150 internationale Teilnehmende, unter anderem aus Indien, den USA, Niederlande, Südafrika, Bosnien und Herzegowina und Deutschland. Ziel der Tagung war es, die Ergebnisse des Projektkurses vorzustellen und einen Diskursraum für eine interkulturellen Perspektive der Informationskompetenz zu schaffen. Die zahlreichen Beiträge der teilnehmenden Studierenden und Angehörigen unterschiedlicher Fachrichtungen führten zu einem regen Diskurs.
    Content
    Im Rahmen des Projektkurses erarbeiteten die Teilnehmenden Vorträge zu folgenden Themen: - Informationsverhalten in Corona-Zeiten - Der Bestätigungsfehler (confirmation bias): "Was ich glaube, ist sicher wahr." Wie man kognitive Fehler korrigiert, um einen offenen Geist zu fördern. - Auswirkungen der Pandemie auf den Bildungssektor - Kultivierung von Informationskompetenz in ländlichen Umgebungen. Die Vorträge wurden auf der Tagung von den Studierenden präsentiert und im Plenum diskutiert. Ergänzend wurden mit Dr. Thomas P. Mackey und Trudi E. Jacobson renommierte ExpertInnen für eine Keynote zum Thema "Metaliteracy und offene Lernumgebungen" gewonnen. Schließlich wurde ein Workshop zu kulturellen Aspekten von Informationskompetenz durchgeführt, in dem auch Möglichkeiten zur Weiterentwicklung des Projekts diskutiert wurden. Nachfolgend werden die einzelnen Sessions der Tagung vorgestellt.
  18. Schrader, A.C.: ORCID DE Monitor online! (2021) 0.02
    0.016107034 = product of:
      0.053690113 = sum of:
        0.024330566 = weight(_text_:des in 292) [ClassicSimilarity], result of:
          0.024330566 = score(doc=292,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.30596817 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=292)
        0.015584512 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.015584512 = score(doc=292,freq=2.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.24487628 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=292)
        0.013775036 = product of:
          0.041325107 = sum of:
            0.041325107 = weight(_text_:online in 292) [ClassicSimilarity], result of:
              0.041325107 = score(doc=292,freq=4.0), product of:
                0.08714639 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.028714733 = queryNorm
                0.47420335 = fieldWeight in 292, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=292)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Der ORCID DE Monitor ist ein Instrument zur Analyse der Nutzung der ORCID iD in der wissenschaftlichen Publikationslandschaft und wurde federführend durch die Universitätsbibliothek der Universität Bielefeld entwickelt. Mit der Vorstellung des Prototyps auf dem 109. Bibliothekartag wurde ein weiterer Meilenstein im Projekt ORCID DE erreicht.
    Footnote
    Vgl.: https://www.orcid-de.org/orcid-de-monitor-online.
  19. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.02
    0.015955564 = product of:
      0.05318521 = sum of:
        0.017031396 = weight(_text_:des in 5954) [ClassicSimilarity], result of:
          0.017031396 = score(doc=5954,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.2141777 = fieldWeight in 5954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
        0.011760197 = product of:
          0.03528059 = sum of:
            0.03528059 = weight(_text_:f in 5954) [ClassicSimilarity], result of:
              0.03528059 = score(doc=5954,freq=2.0), product of:
                0.11445078 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.028714733 = queryNorm
                0.3082599 = fieldWeight in 5954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5954)
          0.33333334 = coord(1/3)
        0.02439362 = weight(_text_:und in 5954) [ClassicSimilarity], result of:
          0.02439362 = score(doc=5954,freq=10.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.38329202 = fieldWeight in 5954, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5954)
      0.3 = coord(3/10)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).
    Source
    https://www.heise.de/tp/features/Oberster-Datenschuetzer-und-73-Mio-Buerger-ausgetrickst-4863346.html?view=print
  20. Arndt, O.: Erosion der bürgerlichen Freiheiten (2020) 0.02
    0.015864974 = product of:
      0.052883245 = sum of:
        0.024330566 = weight(_text_:des in 82) [ClassicSimilarity], result of:
          0.024330566 = score(doc=82,freq=2.0), product of:
            0.07951993 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028714733 = queryNorm
            0.30596817 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.015584512 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.015584512 = score(doc=82,freq=2.0), product of:
            0.06364239 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028714733 = queryNorm
            0.24487628 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=82)
        0.012968167 = product of:
          0.0389045 = sum of:
            0.0389045 = weight(_text_:22 in 82) [ClassicSimilarity], result of:
              0.0389045 = score(doc=82,freq=2.0), product of:
                0.1005541 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028714733 = queryNorm
                0.38690117 = fieldWeight in 82, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=82)
          0.33333334 = coord(1/3)
      0.3 = coord(3/10)
    
    Abstract
    Inwieweit die für smart cities nötige KI und Standards wie 5G grundsätzlich zu einer umfassenden Militarisierung des Alltags führen.
    Date
    22. 6.2020 19:16:24

Languages

  • d 427
  • e 220
  • pt 3
  • m 2
  • More… Less…

Types

  • a 527
  • el 229
  • m 54
  • s 7
  • p 4
  • x 3
  • A 1
  • EL 1
  • r 1
  • More… Less…

Subjects

Classifications