Search (753 results, page 1 of 38)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.18
    0.18371852 = product of:
      0.52819073 = sum of:
        0.031193366 = product of:
          0.0935801 = sum of:
            0.0935801 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.0935801 = score(doc=1000,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.0935801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.0935801 = score(doc=1000,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011077442 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011077442 = score(doc=1000,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0935801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.0935801 = score(doc=1000,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0935801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.0935801 = score(doc=1000,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0935801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.0935801 = score(doc=1000,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.018019475 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.018019475 = score(doc=1000,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0935801 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.0935801 = score(doc=1000,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.3478261 = coord(8/23)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.18
    0.18371241 = product of:
      0.6036265 = sum of:
        0.037432037 = product of:
          0.11229611 = sum of:
            0.11229611 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11229611 = score(doc=862,freq=2.0), product of:
                0.19980873 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023567878 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 862) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=862,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.5 = coord(1/2)
        0.11229611 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11229611 = score(doc=862,freq=2.0), product of:
            0.19980873 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023567878 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3043478 = coord(7/23)
    
    Date
    1. 1.2023 17:48:50
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.14
    0.1449792 = product of:
      0.41681516 = sum of:
        0.101714395 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
          0.101714395 = score(doc=222,freq=8.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.7564393 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.06754528 = weight(_text_:buch in 222) [ClassicSimilarity], result of:
          0.06754528 = score(doc=222,freq=8.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.6164252 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.027671441 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.027671441 = score(doc=222,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.031045094 = product of:
          0.06209019 = sum of:
            0.06209019 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
              0.06209019 = score(doc=222,freq=8.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5910094 = fieldWeight in 222, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
        0.063407324 = weight(_text_:informationswissenschaft in 222) [ClassicSimilarity], result of:
          0.063407324 = score(doc=222,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.5972451 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.06209019 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
          0.06209019 = score(doc=222,freq=8.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.5910094 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.012484257 = weight(_text_:im in 222) [ClassicSimilarity], result of:
          0.012484257 = score(doc=222,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.050857197 = product of:
          0.101714395 = sum of:
            0.101714395 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
              0.101714395 = score(doc=222,freq=8.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.7564393 = fieldWeight in 222, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
      0.3478261 = coord(8/23)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
  4. Gierke, B.: ¬Der Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : eine Kurzvorstellung (2020) 0.06
    0.05795089 = product of:
      0.19041008 = sum of:
        0.047761723 = weight(_text_:buch in 5709) [ClassicSimilarity], result of:
          0.047761723 = score(doc=5709,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.43587846 = fieldWeight in 5709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.018799042 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
          0.018799042 = score(doc=5709,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 5709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
              0.031045094 = score(doc=5709,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 5709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5709)
          0.5 = coord(1/2)
        0.05491236 = weight(_text_:informationswissenschaft in 5709) [ClassicSimilarity], result of:
          0.05491236 = score(doc=5709,freq=6.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.5172295 = fieldWeight in 5709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.031045094 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
          0.031045094 = score(doc=5709,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.017655406 = weight(_text_:im in 5709) [ClassicSimilarity], result of:
          0.017655406 = score(doc=5709,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.26501122 = fieldWeight in 5709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 5709) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=5709,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 5709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5709)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Im Rahmen des DFG Förderprogramms Fachinformationsdienste (FID) nahm der FID Buch- Bibliotheks- und Informationswissenschaft, eine Kooperation der Herzog August Bibliothek Wolfenbüttel und der Universitätsbibliothek Leipzig, im Oktober 2017 seine Arbeit auf. Ziel ist, die Spitzenversorgung mit Literatur für Wissenschaftlerinnen und Wissenschaftler dieser und angrenzenden Disziplinen sicher zu stellen. Dazu hat der FID BBI ein Discovery Tool entwickelt. Grundlage dafür ist die Open-Source-Software VuFind. Eine Herausforderung für den FID BBI ist die Auswertung unterschiedlichster Datenquellen, weil die Themengebiete des FID BBI sehr weit gefächert sind. Das Portal bietet einen schnellen Rechercheeinstieg. Es ist aber auch möglich komplexere Suchanfragen zu stellen. Der Kontakt zu der wissenschaftlichen Gemeinschaft, die der FID BBI bedient, hat große Priorität, um die Ziele, die von der Deutschen Forschungsgemeinschaft gesetzt wurden, zu erfüllen. Ein erster Kontakt kann über das Nachweisportal hergestellt werden: https://katalog.fid-bbi.de.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.1, S.43-48
  5. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.05
    0.054409426 = product of:
      0.1564271 = sum of:
        0.035961468 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
          0.035961468 = score(doc=732,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.2674417 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.023880862 = weight(_text_:buch in 732) [ClassicSimilarity], result of:
          0.023880862 = score(doc=732,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.21793923 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.005426816 = weight(_text_:und in 732) [ClassicSimilarity], result of:
          0.005426816 = score(doc=732,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.10389221 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0109760985 = product of:
          0.021952197 = sum of:
            0.021952197 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
              0.021952197 = score(doc=732,freq=4.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.20895338 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
        0.022417875 = weight(_text_:informationswissenschaft in 732) [ClassicSimilarity], result of:
          0.022417875 = score(doc=732,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.21115804 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.021952197 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
          0.021952197 = score(doc=732,freq=4.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.20895338 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.017831054 = sum of:
          0.008164732 = weight(_text_:1 in 732) [ClassicSimilarity], result of:
            0.008164732 = score(doc=732,freq=6.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.14102763 = fieldWeight in 732, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
          0.009666322 = weight(_text_:29 in 732) [ClassicSimilarity], result of:
            0.009666322 = score(doc=732,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.11659596 = fieldWeight in 732, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
        0.017980734 = product of:
          0.035961468 = sum of:
            0.035961468 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
              0.035961468 = score(doc=732,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2674417 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
      0.3478261 = coord(8/23)
    
    Classification
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Content
    Inhalt: 1 Introduction, Aims and Definitions -- 1.1 Origins -- 1.2 From information science to libraries -- 1.3 The central place of metadata -- 1.4 The book in outline -- 2 Metadata Basics -- 2.1 Introduction -- 2.2 Three types of metadata -- 2.2.1 Descriptive metadata -- 2.2.2 Administrative metadata -- 2.2.3 Structural metadata -- 2.3 The core components of metadata -- 2.3.1 Syntax -- 2.3.2 Semantics -- 2.3.3 Content rules -- 2.4 Metadata standards -- 2.5 Conclusion -- 3 Planning a Metadata Strategy: Basic Principles -- 3.1 Introduction -- 3.2 Principle 1: Support all stages of the digital curation lifecycle -- 3.3 Principle 2: Support the long-term preservation of the digital object -- 3.4 Principle 3: Ensure interoperability -- 3.5 Principle 4: Control metadata content wherever possible -- 3.6 Principle 5: Ensure software independence -- 3.7 Principle 6: Impose a logical system of identifiers -- 3.8 Principle 7: Use standards whenever possible -- 3.9 Principle 8: Ensure the integrity of the metadata itself -- 3.10 Summary: the basic principles of a metadata strategy -- 4 Planning a Metadata Strategy: Applying the Basic Principles -- 4.1 Introduction -- 4.2 Initial steps: standards as a foundation -- 4.2.1 'Off-the shelf' standards -- 4.2.2 Mapping out an architecture and serialising it into a standard -- 4.2.3 Devising a local metadata scheme -- 4.2.4 How standards support the basic principles -- 4.3 Identifiers: everything in its place -- 5 XML: The Syntactical Foundation of Metadata -- 5.1 Introduction -- 5.2 What XML looks like -- 5.3 XML schemas -- 5.4 Namespaces -- 5.5 Creating and editing XML -- 5.6 Transforming XML -- 5.7 Why use XML? -- 6 METS: The Metadata Package -- 6.1 Introduction -- 6.2 Why use METS?.
    Date
    29. 9.2022 17:57:57
    Isbn
    978-1-78330-532-2
    RVK
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
  6. Wiesenmüller, H.: Formale Erschließung (2023) 0.05
    0.053090084 = product of:
      0.203512 = sum of:
        0.03377264 = weight(_text_:buch in 784) [ClassicSimilarity], result of:
          0.03377264 = score(doc=784,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.023024032 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.023024032 = score(doc=784,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.031703662 = weight(_text_:informationswissenschaft in 784) [ClassicSimilarity], result of:
          0.031703662 = score(doc=784,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.29862255 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.05126371 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.05126371 = score(doc=784,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.012484257 = weight(_text_:im in 784) [ClassicSimilarity], result of:
          0.012484257 = score(doc=784,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.26086956 = coord(6/23)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  7. Oliver, C: Introducing RDA : a guide to the basics after 3R (2021) 0.05
    0.04996317 = product of:
      0.28728822 = sum of:
        0.15921438 = weight(_text_:74500 in 716) [ClassicSimilarity], result of:
          0.15921438 = score(doc=716,freq=4.0), product of:
            0.21915752 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.023567878 = queryNorm
            0.72648376 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.060414854 = weight(_text_:katalogisierung in 716) [ClassicSimilarity], result of:
          0.060414854 = score(doc=716,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.44751403 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.060414854 = weight(_text_:katalogisierung in 716) [ClassicSimilarity], result of:
          0.060414854 = score(doc=716,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.44751403 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.0072441325 = product of:
          0.014488265 = sum of:
            0.014488265 = weight(_text_:international in 716) [ClassicSimilarity], result of:
              0.014488265 = score(doc=716,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18428308 = fieldWeight in 716, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=716)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Since Oliver's guide was first published in 2010, thousands of LIS students, records managers, and catalogers and other library professionals have relied on its clear, plainspoken explanation of RDA: Resource Description and Access as their first step towards becoming acquainted with the cataloging standard. Now, reflecting the changes to RDA after the completion of the 3R Project, Oliver brings her Special Report up to date. This essential primer concisely explains what RDA is, its basic features, and the main factors in its development describes RDA's relationship to the international standards and models that continue to influence its evolution provides an overview of the latest developments, focusing on the impact of the 3R Project, the results of aligning RDA with IFLA's Library Reference Model (LRM), and the outcomes of internationalization illustrates how information is organized in the post 3R Toolkit and explains how to navigate through this new structure; and discusses how RDA continues to enable improved resource discovery both in traditional and new applications, including the linked data environment.
    Classification
    AN 74500
    RSWK
    Bibliografische Daten / Datenmodell / Katalogisierung / Resource description and access / Theorie
    RVK
    AN 74500
    Subject
    Bibliografische Daten / Datenmodell / Katalogisierung / Resource description and access / Theorie
  8. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.04
    0.042606663 = product of:
      0.16332555 = sum of:
        0.0678096 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
          0.0678096 = score(doc=752,freq=8.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.5042929 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.022515094 = weight(_text_:buch in 752) [ClassicSimilarity], result of:
          0.022515094 = score(doc=752,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.022881467 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.022881467 = score(doc=752,freq=40.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.011770271 = weight(_text_:im in 752) [ClassicSimilarity], result of:
          0.011770271 = score(doc=752,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.0044443165 = product of:
          0.008888633 = sum of:
            0.008888633 = weight(_text_:1 in 752) [ClassicSimilarity], result of:
              0.008888633 = score(doc=752,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15353142 = fieldWeight in 752, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
        0.0339048 = product of:
          0.0678096 = sum of:
            0.0678096 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
              0.0678096 = score(doc=752,freq=8.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5042929 = fieldWeight in 752, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    Isbn
    978-3-406-79020-1
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  9. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.03
    0.033591457 = product of:
      0.1545207 = sum of:
        0.025325142 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.025325142 = score(doc=428,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.07397521 = weight(_text_:informationswissenschaft in 428) [ClassicSimilarity], result of:
          0.07397521 = score(doc=428,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.696786 = fieldWeight in 428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.029129935 = weight(_text_:im in 428) [ClassicSimilarity], result of:
          0.029129935 = score(doc=428,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.4372462 = fieldWeight in 428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.015948618 = product of:
          0.031897236 = sum of:
            0.031897236 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
              0.031897236 = score(doc=428,freq=4.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.38474706 = fieldWeight in 428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
        0.010141784 = product of:
          0.020283569 = sum of:
            0.020283569 = weight(_text_:international in 428) [ClassicSimilarity], result of:
              0.020283569 = score(doc=428,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2579963 = fieldWeight in 428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Im abschließenden Teil 4 dieser Reihe zur Kritik des "Informationskompetenz"-Ansatzes der Bibliotheks- und Informationswissenschaft und dessen Eignung für die Aufdeckung und "Bekämpfung" von Desinformationen bzw. Fake News (Open Password - noch einzufügen) werden ausgewählte Forschungsergebnisse vorgestellt. Diese entstammen der Studie "Quelle: Internet? - Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test". Träger der Studie ist die Berliner Stiftung "Neue Verantwortung", ein Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen).
    Date
    29. 9.2021 18:17:40
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
    Source
    Open Password. 2021, Nr.979 vom 29. September 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM1OSwiNWZhNTM1ZjgxZDVlIiwwLDAsMzI2LDFd]
  10. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.03
    0.031764194 = product of:
      0.121762745 = sum of:
        0.04195505 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
          0.04195505 = score(doc=1186,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.31201532 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.019700706 = weight(_text_:buch in 1186) [ClassicSimilarity], result of:
          0.019700706 = score(doc=1186,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.17979069 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.027958201 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.027958201 = score(doc=1186,freq=78.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.007282484 = weight(_text_:im in 1186) [ClassicSimilarity], result of:
          0.007282484 = score(doc=1186,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.10931155 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0038887768 = product of:
          0.0077775535 = sum of:
            0.0077775535 = weight(_text_:1 in 1186) [ClassicSimilarity], result of:
              0.0077775535 = score(doc=1186,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.13433999 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
        0.020977525 = product of:
          0.04195505 = sum of:
            0.04195505 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
              0.04195505 = score(doc=1186,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.31201532 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    BK
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Classification
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    Isbn
    978-3-8012-0658-1
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  11. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 1: Das Dilemma mit der inkompetenten Informationskompetenz. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021). (2021) 0.03
    0.030712338 = product of:
      0.14127676 = sum of:
        0.026861368 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.026861368 = score(doc=345,freq=18.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.51424015 = fieldWeight in 345, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.07397521 = weight(_text_:informationswissenschaft in 345) [ClassicSimilarity], result of:
          0.07397521 = score(doc=345,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.696786 = fieldWeight in 345, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.020597974 = weight(_text_:im in 345) [ClassicSimilarity], result of:
          0.020597974 = score(doc=345,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.30917975 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 345) [ClassicSimilarity], result of:
              0.010999122 = score(doc=345,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 345, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
        0.01434265 = product of:
          0.0286853 = sum of:
            0.0286853 = weight(_text_:international in 345) [ClassicSimilarity], result of:
              0.0286853 = score(doc=345,freq=4.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.36486188 = fieldWeight in 345, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Auf der im März 2021 abgehaltenen (virtuellen) "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März -10.März 2021) wurde nochmals nachdrücklich auf die domänenspezifische, fast mit Alleinstellungsanspruch versehene "Informationskompetenz" (Information Literacy) der Bibliotheks- und Informationswissenschaft hingewiesen. Erneut wurden "Zukunftsdiskurse" zu "Informationskompetenz und Demokratie" angekündigt und "Positionspapiere" zur Informationskompetenz und Informationskompetenzvermittlung präsentiert (D. Cetta, J. Griesbaum, T. Mandl, E. Montanari: Positionspapiere. Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Hildesheim 2019).
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  12. Reus, G.: Sprache in den Medien (2020) 0.03
    0.026328 = product of:
      0.151386 = sum of:
        0.0839101 = weight(_text_:allgemeines in 219) [ClassicSimilarity], result of:
          0.0839101 = score(doc=219,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.62403065 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.020021284 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.020021284 = score(doc=219,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.38329202 = fieldWeight in 219, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.005499561 = product of:
          0.010999122 = sum of:
            0.010999122 = weight(_text_:1 in 219) [ClassicSimilarity], result of:
              0.010999122 = score(doc=219,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18998542 = fieldWeight in 219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=219)
          0.5 = coord(1/2)
        0.04195505 = product of:
          0.0839101 = sum of:
            0.0839101 = weight(_text_:allgemeines in 219) [ClassicSimilarity], result of:
              0.0839101 = score(doc=219,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.62403065 = fieldWeight in 219, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=219)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Seit es Massenmedien gibt, machen Kulturkritiker sie verantwortlich für einen vermeintlichen Verfall der Sprache. Doch eine solche Anschuldigung ist unhaltbar. Sprache verändert sich ständig, weil sich die Gesellschaft wandelt. Massenmedien greifen diese Veränderungen in Wortschatz und Syntax auf und spiegeln sie in die Gesellschaft zurück. Motor und Ursprung von "Sprachverderb" aber sind sie keineswegs. Vielmehr erschließen sie der Gesellschaft Vielfalt und Reichtum von Ausdrucksmöglichkeiten. Sie machen Sprache als Kulturleistung zugänglich und die Welt mit Sprache verständlich.
    BK
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
    Classification
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
    Isbn
    978-3-658-00861-1
  13. Seemann, M.: ¬Die Macht der Plattformen : Politik in Zeiten der Internetgiganten (2021) 0.02
    0.024813414 = product of:
      0.14267713 = sum of:
        0.0678096 = weight(_text_:allgemeines in 553) [ClassicSimilarity], result of:
          0.0678096 = score(doc=553,freq=8.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.5042929 = fieldWeight in 553, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.022515094 = weight(_text_:buch in 553) [ClassicSimilarity], result of:
          0.022515094 = score(doc=553,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.018447628 = weight(_text_:und in 553) [ClassicSimilarity], result of:
          0.018447628 = score(doc=553,freq=26.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3531656 = fieldWeight in 553, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.0339048 = product of:
          0.0678096 = sum of:
            0.0678096 = weight(_text_:allgemeines in 553) [ClassicSimilarity], result of:
              0.0678096 = score(doc=553,freq=8.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5042929 = fieldWeight in 553, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=553)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Plattformen sind mehr als Unternehmen, sie sind die Herrschaftszentren unserer Zeit. Facebook, Google und Amazon ersetzen Marktplätze und öffentlichen Räume, doch sie entscheiden darüber, wer sich dort aufhalten darf und welche Regeln gelten. Von Staaten sind sie kaum zu kontrollieren, sie agieren selbst wie welche. Mehr noch: Plattformen stellen gängige Konzepte von Kapitalismus, Eigentum und Demokratie in Frage. Michael Seemann zeigt, was Plattformen ausmacht, woher ihre Macht kommt, wie sich mit ihnen umgehen lässt und welche Zukunft sie haben
    BK
    05.20 Kommunikation und Gesellschaft
    Classification
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    05.20 Kommunikation und Gesellschaft
    Content
    Vgl.: Rez. unter: https://www.perlentaucher.de/buch/michael-seemann/die-macht-der-plattformen.html; https://www.rkm-journal.de/archives/23149 (H.-D. Kübler)).
    RVK
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
  14. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.024131676 = product of:
      0.111005716 = sum of:
        0.021707265 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.021707265 = score(doc=346,freq=16.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 346, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.063407324 = weight(_text_:informationswissenschaft in 346) [ClassicSimilarity], result of:
          0.063407324 = score(doc=346,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.5972451 = fieldWeight in 346, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.012484257 = weight(_text_:im in 346) [ClassicSimilarity], result of:
          0.012484257 = score(doc=346,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.0047139092 = product of:
          0.0094278185 = sum of:
            0.0094278185 = weight(_text_:1 in 346) [ClassicSimilarity], result of:
              0.0094278185 = score(doc=346,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.16284466 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 346) [ClassicSimilarity], result of:
              0.017385917 = score(doc=346,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  15. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.02
    0.023175638 = product of:
      0.10660794 = sum of:
        0.011077442 = weight(_text_:und in 330) [ClassicSimilarity], result of:
          0.011077442 = score(doc=330,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.21206908 = fieldWeight in 330, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.069900006 = weight(_text_:informationswissenschaft in 330) [ClassicSimilarity], result of:
          0.069900006 = score(doc=330,freq=14.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.6584009 = fieldWeight in 330, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.010403548 = weight(_text_:im in 330) [ClassicSimilarity], result of:
          0.010403548 = score(doc=330,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.0072441325 = product of:
          0.014488265 = sum of:
            0.014488265 = weight(_text_:international in 330) [ClassicSimilarity], result of:
              0.014488265 = score(doc=330,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.18428308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
        0.007982805 = product of:
          0.01596561 = sum of:
            0.01596561 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.01596561 = score(doc=330,freq=2.0), product of:
                0.08253069 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023567878 = queryNorm
                0.19345059 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.
    Field
    Informationswissenschaft
  16. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.02
    0.022820318 = product of:
      0.104973465 = sum of:
        0.0171611 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.0171611 = score(doc=537,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.015522547 = product of:
          0.031045094 = sum of:
            0.031045094 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
              0.031045094 = score(doc=537,freq=2.0), product of:
                0.10505787 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2955047 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.031045094 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
          0.031045094 = score(doc=537,freq=2.0), product of:
            0.10505787 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.023567878 = queryNorm
            0.2955047 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.012484257 = weight(_text_:im in 537) [ClassicSimilarity], result of:
          0.012484257 = score(doc=537,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.028760463 = sum of:
          0.0094278185 = weight(_text_:1 in 537) [ClassicSimilarity], result of:
            0.0094278185 = score(doc=537,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.16284466 = fieldWeight in 537, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=537)
          0.019332644 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
            0.019332644 = score(doc=537,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.23319192 = fieldWeight in 537, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=537)
      0.2173913 = coord(5/23)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
    Date
    29. 9.2021 14:01:02
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.3, S.1-15
  17. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.02
    0.022163708 = product of:
      0.12744132 = sum of:
        0.059935786 = weight(_text_:allgemeines in 755) [ClassicSimilarity], result of:
          0.059935786 = score(doc=755,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.44573617 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.027134081 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.027134081 = score(doc=755,freq=36.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.010403548 = weight(_text_:im in 755) [ClassicSimilarity], result of:
          0.010403548 = score(doc=755,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15615936 = fieldWeight in 755, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.029967893 = product of:
          0.059935786 = sum of:
            0.059935786 = weight(_text_:allgemeines in 755) [ClassicSimilarity], result of:
              0.059935786 = score(doc=755,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.44573617 = fieldWeight in 755, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=755)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
  18. Dijk, J: ¬The digital divide (2020) 0.02
    0.02180948 = product of:
      0.1254045 = sum of:
        0.071922936 = weight(_text_:allgemeines in 68) [ClassicSimilarity], result of:
          0.071922936 = score(doc=68,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.5348834 = fieldWeight in 68, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=68)
        0.010853632 = weight(_text_:und in 68) [ClassicSimilarity], result of:
          0.010853632 = score(doc=68,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.20778441 = fieldWeight in 68, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=68)
        0.0066664745 = product of:
          0.013332949 = sum of:
            0.013332949 = weight(_text_:1 in 68) [ClassicSimilarity], result of:
              0.013332949 = score(doc=68,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23029712 = fieldWeight in 68, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=68)
          0.5 = coord(1/2)
        0.035961468 = product of:
          0.071922936 = sum of:
            0.071922936 = weight(_text_:allgemeines in 68) [ClassicSimilarity], result of:
              0.071922936 = score(doc=68,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.5348834 = fieldWeight in 68, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.046875 = fieldNorm(doc=68)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Classification
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
    Footnote
    Rez. in: JASIST 72(2021) no.1, S.136-138 (Rebecca Reynolds).
    Isbn
    978-1-5095-3444-9
    RVK
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
  19. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.021293854 = product of:
      0.12243966 = sum of:
        0.028716011 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.028716011 = score(doc=406,freq=28.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.063407324 = weight(_text_:informationswissenschaft in 406) [ClassicSimilarity], result of:
          0.063407324 = score(doc=406,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.5972451 = fieldWeight in 406, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.02162337 = weight(_text_:im in 406) [ClassicSimilarity], result of:
          0.02162337 = score(doc=406,freq=6.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.32457113 = fieldWeight in 406, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.008692958 = product of:
          0.017385917 = sum of:
            0.017385917 = weight(_text_:international in 406) [ClassicSimilarity], result of:
              0.017385917 = score(doc=406,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.22113968 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  20. Boczkowski, P.; Mitchelstein, E.: ¬The digital environment : How we live, learn, work, and play now (2021) 0.02
    0.020704018 = product of:
      0.1190481 = sum of:
        0.04794863 = weight(_text_:allgemeines in 1003) [ClassicSimilarity], result of:
          0.04794863 = score(doc=1003,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.35658893 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.0072357547 = weight(_text_:und in 1003) [ClassicSimilarity], result of:
          0.0072357547 = score(doc=1003,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.13852294 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.0031426062 = product of:
          0.0062852125 = sum of:
            0.0062852125 = weight(_text_:1 in 1003) [ClassicSimilarity], result of:
              0.0062852125 = score(doc=1003,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.1085631 = fieldWeight in 1003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1003)
          0.5 = coord(1/2)
        0.060721118 = sum of:
          0.04794863 = weight(_text_:allgemeines in 1003) [ClassicSimilarity], result of:
            0.04794863 = score(doc=1003,freq=4.0), product of:
              0.13446471 = queryWeight, product of:
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.023567878 = queryNorm
              0.35658893 = fieldWeight in 1003, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.03125 = fieldNorm(doc=1003)
          0.012772488 = weight(_text_:22 in 1003) [ClassicSimilarity], result of:
            0.012772488 = score(doc=1003,freq=2.0), product of:
              0.08253069 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.023567878 = queryNorm
              0.15476047 = fieldWeight in 1003, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1003)
      0.17391305 = coord(4/23)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    1. Three Environments, One Life -- Part I: Foundations -- 2. Mediatization -- 3. Algorithms -- 4. Race and Ethnicity -- 5. Gender -- Part II: Institutions -- 6. Parenting -- 7. Schooling -- 8. Working -- 9. Dating -- Part III: Leisure -- 10. Sports -- 11. Televised Entertainment -- 12. News -- Part IV: Politics -- 13. Misinformation and Disinformation -- 14. Electoral Campaigns -- 15. Activism -- Part V: Innovations -- 16. Data Science -- 17. Virtual Reality -- 18. Space Exploration -- 19. Bricks and Cracks in the Digital Environment
    Date
    22. 6.2023 18:25:18
    RVK
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung

Languages

  • d 428
  • e 316
  • pt 4
  • m 2
  • sp 1
  • More… Less…

Types

  • a 621
  • el 243
  • m 59
  • s 7
  • p 6
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications