Search (753 results, page 1 of 38)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.19
    0.19112252 = product of:
      0.5494772 = sum of:
        0.032450482 = product of:
          0.09735145 = sum of:
            0.09735145 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.09735145 = score(doc=1000,freq=2.0), product of:
                0.20786117 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024517681 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.09735145 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09735145 = score(doc=1000,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.011523872 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.011523872 = score(doc=1000,freq=6.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09735145 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09735145 = score(doc=1000,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09735145 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09735145 = score(doc=1000,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09735145 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09735145 = score(doc=1000,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.018745674 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.018745674 = score(doc=1000,freq=6.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09735145 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09735145 = score(doc=1000,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.3478261 = coord(8/23)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.19
    0.19111615 = product of:
      0.6279531 = sum of:
        0.03894058 = product of:
          0.11682173 = sum of:
            0.11682173 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.11682173 = score(doc=862,freq=2.0), product of:
                0.20786117 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024517681 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.11682173 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11682173 = score(doc=862,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11682173 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11682173 = score(doc=862,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11682173 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11682173 = score(doc=862,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.11682173 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11682173 = score(doc=862,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0049038837 = product of:
          0.009807767 = sum of:
            0.009807767 = weight(_text_:1 in 862) [ClassicSimilarity], result of:
              0.009807767 = score(doc=862,freq=2.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.16284466 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.5 = coord(1/2)
        0.11682173 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.11682173 = score(doc=862,freq=2.0), product of:
            0.20786117 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024517681 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3043478 = coord(7/23)
    
    Date
    1. 1.2023 17:48:50
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.14
    0.14225173 = product of:
      0.40897372 = sum of:
        0.10581356 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
          0.10581356 = score(doc=222,freq=8.0), product of:
            0.13988374 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024517681 = queryNorm
            0.7564393 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.0702674 = weight(_text_:buch in 222) [ClassicSimilarity], result of:
          0.0702674 = score(doc=222,freq=8.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.6164252 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.028786622 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.028786622 = score(doc=222,freq=26.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.032296237 = product of:
          0.06459247 = sum of:
            0.06459247 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
              0.06459247 = score(doc=222,freq=8.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.5910094 = fieldWeight in 222, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
        0.06596269 = weight(_text_:informationswissenschaft in 222) [ClassicSimilarity], result of:
          0.06596269 = score(doc=222,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.5972451 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.06459247 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
          0.06459247 = score(doc=222,freq=8.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.5910094 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.012987383 = weight(_text_:im in 222) [ClassicSimilarity], result of:
          0.012987383 = score(doc=222,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.18739122 = fieldWeight in 222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.028267344 = product of:
          0.05653469 = sum of:
            0.05653469 = weight(_text_:allgemeinen in 222) [ClassicSimilarity], result of:
              0.05653469 = score(doc=222,freq=2.0), product of:
                0.14460026 = queryWeight, product of:
                  5.8977947 = idf(docFreq=329, maxDocs=44218)
                  0.024517681 = queryNorm
                0.39097226 = fieldWeight in 222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8977947 = idf(docFreq=329, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
      0.3478261 = coord(8/23)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
  4. Gierke, B.: ¬Der Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : eine Kurzvorstellung (2020) 0.06
    0.060286358 = product of:
      0.19808376 = sum of:
        0.04968656 = weight(_text_:buch in 5709) [ClassicSimilarity], result of:
          0.04968656 = score(doc=5709,freq=4.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.43587846 = fieldWeight in 5709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.019556658 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
          0.019556658 = score(doc=5709,freq=12.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.35989314 = fieldWeight in 5709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.016148118 = product of:
          0.032296237 = sum of:
            0.032296237 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
              0.032296237 = score(doc=5709,freq=2.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.2955047 = fieldWeight in 5709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5709)
          0.5 = coord(1/2)
        0.05712537 = weight(_text_:informationswissenschaft in 5709) [ClassicSimilarity], result of:
          0.05712537 = score(doc=5709,freq=6.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.5172295 = fieldWeight in 5709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.032296237 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
          0.032296237 = score(doc=5709,freq=2.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.2955047 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.018366933 = weight(_text_:im in 5709) [ClassicSimilarity], result of:
          0.018366933 = score(doc=5709,freq=4.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.26501122 = fieldWeight in 5709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.0049038837 = product of:
          0.009807767 = sum of:
            0.009807767 = weight(_text_:1 in 5709) [ClassicSimilarity], result of:
              0.009807767 = score(doc=5709,freq=2.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.16284466 = fieldWeight in 5709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5709)
          0.5 = coord(1/2)
      0.3043478 = coord(7/23)
    
    Abstract
    Im Rahmen des DFG Förderprogramms Fachinformationsdienste (FID) nahm der FID Buch- Bibliotheks- und Informationswissenschaft, eine Kooperation der Herzog August Bibliothek Wolfenbüttel und der Universitätsbibliothek Leipzig, im Oktober 2017 seine Arbeit auf. Ziel ist, die Spitzenversorgung mit Literatur für Wissenschaftlerinnen und Wissenschaftler dieser und angrenzenden Disziplinen sicher zu stellen. Dazu hat der FID BBI ein Discovery Tool entwickelt. Grundlage dafür ist die Open-Source-Software VuFind. Eine Herausforderung für den FID BBI ist die Auswertung unterschiedlichster Datenquellen, weil die Themengebiete des FID BBI sehr weit gefächert sind. Das Portal bietet einen schnellen Rechercheeinstieg. Es ist aber auch möglich komplexere Suchanfragen zu stellen. Der Kontakt zu der wissenschaftlichen Gemeinschaft, die der FID BBI bedient, hat große Priorität, um die Ziele, die von der Deutschen Forschungsgemeinschaft gesetzt wurden, zu erfüllen. Ein erster Kontakt kann über das Nachweisportal hergestellt werden: https://katalog.fid-bbi.de.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.1, S.43-48
  5. Wiesenmüller, H.: Formale Erschließung (2023) 0.06
    0.05522966 = product of:
      0.2117137 = sum of:
        0.0351337 = weight(_text_:buch in 784) [ClassicSimilarity], result of:
          0.0351337 = score(doc=784,freq=2.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.3082126 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.023951918 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.023951918 = score(doc=784,freq=18.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.032981344 = weight(_text_:informationswissenschaft in 784) [ClassicSimilarity], result of:
          0.032981344 = score(doc=784,freq=2.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.29862255 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.053329676 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.053329676 = score(doc=784,freq=2.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.053329676 = weight(_text_:katalogisierung in 784) [ClassicSimilarity], result of:
          0.053329676 = score(doc=784,freq=2.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.37972826 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.012987383 = weight(_text_:im in 784) [ClassicSimilarity], result of:
          0.012987383 = score(doc=784,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.18739122 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.26086956 = coord(6/23)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  6. Oliver, C: Introducing RDA : a guide to the basics after 3R (2021) 0.05
    0.05197673 = product of:
      0.29886618 = sum of:
        0.16563083 = weight(_text_:74500 in 716) [ClassicSimilarity], result of:
          0.16563083 = score(doc=716,freq=4.0), product of:
            0.22798973 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.024517681 = queryNorm
            0.72648376 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.062849626 = weight(_text_:katalogisierung in 716) [ClassicSimilarity], result of:
          0.062849626 = score(doc=716,freq=4.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.44751403 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.062849626 = weight(_text_:katalogisierung in 716) [ClassicSimilarity], result of:
          0.062849626 = score(doc=716,freq=4.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.44751403 = fieldWeight in 716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=716)
        0.007536076 = product of:
          0.015072152 = sum of:
            0.015072152 = weight(_text_:international in 716) [ClassicSimilarity], result of:
              0.015072152 = score(doc=716,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.18428308 = fieldWeight in 716, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=716)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Since Oliver's guide was first published in 2010, thousands of LIS students, records managers, and catalogers and other library professionals have relied on its clear, plainspoken explanation of RDA: Resource Description and Access as their first step towards becoming acquainted with the cataloging standard. Now, reflecting the changes to RDA after the completion of the 3R Project, Oliver brings her Special Report up to date. This essential primer concisely explains what RDA is, its basic features, and the main factors in its development describes RDA's relationship to the international standards and models that continue to influence its evolution provides an overview of the latest developments, focusing on the impact of the 3R Project, the results of aligning RDA with IFLA's Library Reference Model (LRM), and the outcomes of internationalization illustrates how information is organized in the post 3R Toolkit and explains how to navigate through this new structure; and discusses how RDA continues to enable improved resource discovery both in traditional and new applications, including the linked data environment.
    Classification
    AN 74500
    RSWK
    Bibliografische Daten / Datenmodell / Katalogisierung / Resource description and access / Theorie
    RVK
    AN 74500
    Subject
    Bibliografische Daten / Datenmodell / Katalogisierung / Resource description and access / Theorie
  7. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.04
    0.043833956 = product of:
      0.14402586 = sum of:
        0.037410744 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
          0.037410744 = score(doc=732,freq=4.0), product of:
            0.13988374 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024517681 = queryNorm
            0.2674417 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.02484328 = weight(_text_:buch in 732) [ClassicSimilarity], result of:
          0.02484328 = score(doc=732,freq=4.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.21793923 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0056455215 = weight(_text_:und in 732) [ClassicSimilarity], result of:
          0.0056455215 = score(doc=732,freq=4.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.10389221 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.011418444 = product of:
          0.022836888 = sum of:
            0.022836888 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
              0.022836888 = score(doc=732,freq=4.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.20895338 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
        0.023321332 = weight(_text_:informationswissenschaft in 732) [ClassicSimilarity], result of:
          0.023321332 = score(doc=732,freq=4.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.21115804 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.022836888 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
          0.022836888 = score(doc=732,freq=4.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.20895338 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.018549658 = sum of:
          0.008493777 = weight(_text_:1 in 732) [ClassicSimilarity], result of:
            0.008493777 = score(doc=732,freq=6.0), product of:
              0.06022775 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.024517681 = queryNorm
              0.14102763 = fieldWeight in 732, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
          0.010055881 = weight(_text_:29 in 732) [ClassicSimilarity], result of:
            0.010055881 = score(doc=732,freq=2.0), product of:
              0.08624554 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.024517681 = queryNorm
              0.11659596 = fieldWeight in 732, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0234375 = fieldNorm(doc=732)
      0.3043478 = coord(7/23)
    
    Classification
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Content
    Inhalt: 1 Introduction, Aims and Definitions -- 1.1 Origins -- 1.2 From information science to libraries -- 1.3 The central place of metadata -- 1.4 The book in outline -- 2 Metadata Basics -- 2.1 Introduction -- 2.2 Three types of metadata -- 2.2.1 Descriptive metadata -- 2.2.2 Administrative metadata -- 2.2.3 Structural metadata -- 2.3 The core components of metadata -- 2.3.1 Syntax -- 2.3.2 Semantics -- 2.3.3 Content rules -- 2.4 Metadata standards -- 2.5 Conclusion -- 3 Planning a Metadata Strategy: Basic Principles -- 3.1 Introduction -- 3.2 Principle 1: Support all stages of the digital curation lifecycle -- 3.3 Principle 2: Support the long-term preservation of the digital object -- 3.4 Principle 3: Ensure interoperability -- 3.5 Principle 4: Control metadata content wherever possible -- 3.6 Principle 5: Ensure software independence -- 3.7 Principle 6: Impose a logical system of identifiers -- 3.8 Principle 7: Use standards whenever possible -- 3.9 Principle 8: Ensure the integrity of the metadata itself -- 3.10 Summary: the basic principles of a metadata strategy -- 4 Planning a Metadata Strategy: Applying the Basic Principles -- 4.1 Introduction -- 4.2 Initial steps: standards as a foundation -- 4.2.1 'Off-the shelf' standards -- 4.2.2 Mapping out an architecture and serialising it into a standard -- 4.2.3 Devising a local metadata scheme -- 4.2.4 How standards support the basic principles -- 4.3 Identifiers: everything in its place -- 5 XML: The Syntactical Foundation of Metadata -- 5.1 Introduction -- 5.2 What XML looks like -- 5.3 XML schemas -- 5.4 Namespaces -- 5.5 Creating and editing XML -- 5.6 Transforming XML -- 5.7 Why use XML? -- 6 METS: The Metadata Package -- 6.1 Introduction -- 6.2 Why use METS?.
    Date
    29. 9.2022 17:57:57
    Isbn
    978-1-78330-532-2
    RVK
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
  8. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.03
    0.034945212 = product of:
      0.16074799 = sum of:
        0.026345765 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.026345765 = score(doc=428,freq=16.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.07695647 = weight(_text_:informationswissenschaft in 428) [ClassicSimilarity], result of:
          0.07695647 = score(doc=428,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.696786 = fieldWeight in 428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.030303894 = weight(_text_:im in 428) [ClassicSimilarity], result of:
          0.030303894 = score(doc=428,freq=8.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.4372462 = fieldWeight in 428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.016591359 = product of:
          0.033182718 = sum of:
            0.033182718 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
              0.033182718 = score(doc=428,freq=4.0), product of:
                0.08624554 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.024517681 = queryNorm
                0.38474706 = fieldWeight in 428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
        0.0105505055 = product of:
          0.021101011 = sum of:
            0.021101011 = weight(_text_:international in 428) [ClassicSimilarity], result of:
              0.021101011 = score(doc=428,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.2579963 = fieldWeight in 428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Im abschließenden Teil 4 dieser Reihe zur Kritik des "Informationskompetenz"-Ansatzes der Bibliotheks- und Informationswissenschaft und dessen Eignung für die Aufdeckung und "Bekämpfung" von Desinformationen bzw. Fake News (Open Password - noch einzufügen) werden ausgewählte Forschungsergebnisse vorgestellt. Diese entstammen der Studie "Quelle: Internet? - Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test". Träger der Studie ist die Berliner Stiftung "Neue Verantwortung", ein Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen).
    Date
    29. 9.2021 18:17:40
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
    Source
    Open Password. 2021, Nr.979 vom 29. September 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM1OSwiNWZhNTM1ZjgxZDVlIiwwLDAsMzI2LDFd]
  9. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 1: Das Dilemma mit der inkompetenten Informationskompetenz. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021). (2021) 0.03
    0.03195007 = product of:
      0.14697033 = sum of:
        0.027943902 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.027943902 = score(doc=345,freq=18.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.51424015 = fieldWeight in 345, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.07695647 = weight(_text_:informationswissenschaft in 345) [ClassicSimilarity], result of:
          0.07695647 = score(doc=345,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.696786 = fieldWeight in 345, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.021428088 = weight(_text_:im in 345) [ClassicSimilarity], result of:
          0.021428088 = score(doc=345,freq=4.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.30917975 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
        0.0057211975 = product of:
          0.011442395 = sum of:
            0.011442395 = weight(_text_:1 in 345) [ClassicSimilarity], result of:
              0.011442395 = score(doc=345,freq=2.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.18998542 = fieldWeight in 345, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
        0.014920669 = product of:
          0.029841337 = sum of:
            0.029841337 = weight(_text_:international in 345) [ClassicSimilarity], result of:
              0.029841337 = score(doc=345,freq=4.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.36486188 = fieldWeight in 345, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=345)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Auf der im März 2021 abgehaltenen (virtuellen) "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März -10.März 2021) wurde nochmals nachdrücklich auf die domänenspezifische, fast mit Alleinstellungsanspruch versehene "Informationskompetenz" (Information Literacy) der Bibliotheks- und Informationswissenschaft hingewiesen. Erneut wurden "Zukunftsdiskurse" zu "Informationskompetenz und Demokratie" angekündigt und "Positionspapiere" zur Informationskompetenz und Informationskompetenzvermittlung präsentiert (D. Cetta, J. Griesbaum, T. Mandl, E. Montanari: Positionspapiere. Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Hildesheim 2019).
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  10. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.03
    0.029268805 = product of:
      0.1346365 = sum of:
        0.07054238 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
          0.07054238 = score(doc=752,freq=8.0), product of:
            0.13988374 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024517681 = queryNorm
            0.5042929 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.023422468 = weight(_text_:buch in 752) [ClassicSimilarity], result of:
          0.023422468 = score(doc=752,freq=2.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.20547508 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.023803607 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.023803607 = score(doc=752,freq=40.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.012244621 = weight(_text_:im in 752) [ClassicSimilarity], result of:
          0.012244621 = score(doc=752,freq=4.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.17667414 = fieldWeight in 752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.004623426 = product of:
          0.009246852 = sum of:
            0.009246852 = weight(_text_:1 in 752) [ClassicSimilarity], result of:
              0.009246852 = score(doc=752,freq=4.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.15353142 = fieldWeight in 752, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    Isbn
    978-3-406-79020-1
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  11. Lackner, K.; Schilhan, L.: ¬Der Einzug der EDV im österreichischen Bibliothekswesen am Beispiel der Universitätsbibliothek Graz (2022) 0.03
    0.026204165 = product of:
      0.120539166 = sum of:
        0.017852705 = weight(_text_:und in 476) [ClassicSimilarity], result of:
          0.017852705 = score(doc=476,freq=10.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.328536 = fieldWeight in 476, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.016148118 = product of:
          0.032296237 = sum of:
            0.032296237 = weight(_text_:bibliothekswesen in 476) [ClassicSimilarity], result of:
              0.032296237 = score(doc=476,freq=2.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.2955047 = fieldWeight in 476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=476)
          0.5 = coord(1/2)
        0.032296237 = weight(_text_:bibliothekswesen in 476) [ClassicSimilarity], result of:
          0.032296237 = score(doc=476,freq=2.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.2955047 = fieldWeight in 476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.025974765 = weight(_text_:im in 476) [ClassicSimilarity], result of:
          0.025974765 = score(doc=476,freq=8.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.37478244 = fieldWeight in 476, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=476)
        0.028267344 = product of:
          0.05653469 = sum of:
            0.05653469 = weight(_text_:allgemeinen in 476) [ClassicSimilarity], result of:
              0.05653469 = score(doc=476,freq=2.0), product of:
                0.14460026 = queryWeight, product of:
                  5.8977947 = idf(docFreq=329, maxDocs=44218)
                  0.024517681 = queryNorm
                0.39097226 = fieldWeight in 476, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.8977947 = idf(docFreq=329, maxDocs=44218)
                  0.046875 = fieldNorm(doc=476)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Durch den Einsatz von EDV-Systemen kam es ab den 1970er Jahren zu einem radikalen Wandel in der Benutzung und Verwaltung von Universitätsbibliotheken. Die Universitätsbibliothek Graz war die erste Bibliothek in Österreich, die ein elektronisches Bibliothekssystem entwickelte und einsetzte, womit sie zu den Vorreitern in Europa zählte. Dieser Artikel liefert einen historischen Überblick über die Anfänge, die Entwicklung und Verbreitung der elektronischen Bibliothekssysteme im Allgemeinen sowie an der Universitätsbibliothek Graz im Speziellen. Vorgestellt werden die im Lauf der Jahrzehnte an der UB Graz eingesetzten Bibliothekssysteme GRIBS, EMILE, FBInfo, BIBOS, ALEPH und ALMA sowie die Entwicklung von den ersten Online- über die CD-ROM-Datenbanken bis hin zum modernen Datenbank-Retrieval.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 74(2021) H.2, S.171-204
  12. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.03
    0.0251042 = product of:
      0.11547933 = sum of:
        0.022582086 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.022582086 = score(doc=346,freq=16.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.41556883 = fieldWeight in 346, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.06596269 = weight(_text_:informationswissenschaft in 346) [ClassicSimilarity], result of:
          0.06596269 = score(doc=346,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.5972451 = fieldWeight in 346, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.012987383 = weight(_text_:im in 346) [ClassicSimilarity], result of:
          0.012987383 = score(doc=346,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.18739122 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
        0.0049038837 = product of:
          0.009807767 = sum of:
            0.009807767 = weight(_text_:1 in 346) [ClassicSimilarity], result of:
              0.009807767 = score(doc=346,freq=2.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.16284466 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
        0.009043291 = product of:
          0.018086582 = sum of:
            0.018086582 = weight(_text_:international in 346) [ClassicSimilarity], result of:
              0.018086582 = score(doc=346,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.22113968 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  13. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" II : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.02
    0.024109634 = product of:
      0.11090432 = sum of:
        0.011523872 = weight(_text_:und in 330) [ClassicSimilarity], result of:
          0.011523872 = score(doc=330,freq=6.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.21206908 = fieldWeight in 330, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.07271703 = weight(_text_:informationswissenschaft in 330) [ClassicSimilarity], result of:
          0.07271703 = score(doc=330,freq=14.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.6584009 = fieldWeight in 330, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.010822819 = weight(_text_:im in 330) [ClassicSimilarity], result of:
          0.010822819 = score(doc=330,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.15615936 = fieldWeight in 330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=330)
        0.007536076 = product of:
          0.015072152 = sum of:
            0.015072152 = weight(_text_:international in 330) [ClassicSimilarity], result of:
              0.015072152 = score(doc=330,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.18428308 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
        0.008304519 = product of:
          0.016609037 = sum of:
            0.016609037 = weight(_text_:22 in 330) [ClassicSimilarity], result of:
              0.016609037 = score(doc=330,freq=2.0), product of:
                0.08585674 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024517681 = queryNorm
                0.19345059 = fieldWeight in 330, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=330)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Nur noch Informationsethik, Informationskompetenz und Information Assessment? Doch gerade die Abschottung von anderen Disziplinen verstärkt die Isolation des "kleinen Faches" Informationswissenschaft in der Scientific Community. So bleiben ihr als letzte "eigenständige" Forschungsrandgebiete nur die, die Wolf Rauch als Keynote Speaker bereits in seinem einführenden, historisch-genetischen Vortrag zur Lage der Informationswissenschaft auf der ISI 2021 benannt hat: "Wenn die universitäre Informationswissenschaft (zumindest in Europa) wohl kaum eine Chance hat, im Bereich der Entwicklung von Systemen und Anwendungen wieder an die Spitze der Entwicklung vorzustoßen, bleiben ihr doch Gebiete, in denen ihr Beitrag in der kommenden Entwicklungsphase dringend erforderlich sein wird: Informationsethik, Informationskompetenz, Information Assessment" (Wolf Rauch: Was aus der Informationswissenschaft geworden ist; in: Thomas Schmidt; Christian Wolff (Eds): Information between Data and Knowledge. Schriften zur Informationswissenschaft 74, Regensburg, 2021, Seiten 20-22 - siehe auch die Rezeption des Beitrages von Rauch durch Johannes Elia Panskus, Was aus der Informationswissenschaft geworden ist. Sie ist in der Realität angekommen, in: Open Password, 17. März 2021). Das ist alles? Ernüchternd.
    Field
    Informationswissenschaft
  14. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.02
    0.023739992 = product of:
      0.109203964 = sum of:
        0.017852705 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.017852705 = score(doc=537,freq=10.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.016148118 = product of:
          0.032296237 = sum of:
            0.032296237 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
              0.032296237 = score(doc=537,freq=2.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.2955047 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.032296237 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
          0.032296237 = score(doc=537,freq=2.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.2955047 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.012987383 = weight(_text_:im in 537) [ClassicSimilarity], result of:
          0.012987383 = score(doc=537,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.18739122 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.02991953 = sum of:
          0.009807767 = weight(_text_:1 in 537) [ClassicSimilarity], result of:
            0.009807767 = score(doc=537,freq=2.0), product of:
              0.06022775 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.024517681 = queryNorm
              0.16284466 = fieldWeight in 537, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.046875 = fieldNorm(doc=537)
          0.020111762 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
            0.020111762 = score(doc=537,freq=2.0), product of:
              0.08624554 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.024517681 = queryNorm
              0.23319192 = fieldWeight in 537, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=537)
      0.2173913 = coord(5/23)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
    Date
    29. 9.2021 14:01:02
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.3, S.1-15
  15. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.02
    0.022792812 = product of:
      0.10484694 = sum of:
        0.04364587 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
          0.04364587 = score(doc=1186,freq=4.0), product of:
            0.13988374 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.024517681 = queryNorm
            0.31201532 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.02049466 = weight(_text_:buch in 1186) [ClassicSimilarity], result of:
          0.02049466 = score(doc=1186,freq=2.0), product of:
            0.113991775 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.024517681 = queryNorm
            0.17979069 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.029084938 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.029084938 = score(doc=1186,freq=78.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0075759734 = weight(_text_:im in 1186) [ClassicSimilarity], result of:
          0.0075759734 = score(doc=1186,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.10931155 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0040454976 = product of:
          0.008090995 = sum of:
            0.008090995 = weight(_text_:1 in 1186) [ClassicSimilarity], result of:
              0.008090995 = score(doc=1186,freq=4.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.13433999 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    BK
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Classification
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    Isbn
    978-3-8012-0658-1
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  16. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.022152014 = product of:
      0.12737408 = sum of:
        0.02987329 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.02987329 = score(doc=406,freq=28.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.06596269 = weight(_text_:informationswissenschaft in 406) [ClassicSimilarity], result of:
          0.06596269 = score(doc=406,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.5972451 = fieldWeight in 406, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.022494808 = weight(_text_:im in 406) [ClassicSimilarity], result of:
          0.022494808 = score(doc=406,freq=6.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.32457113 = fieldWeight in 406, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.009043291 = product of:
          0.018086582 = sum of:
            0.018086582 = weight(_text_:international in 406) [ClassicSimilarity], result of:
              0.018086582 = score(doc=406,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.22113968 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Field
    Informationswissenschaft
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  17. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.02
    0.0214347 = product of:
      0.09859963 = sum of:
        0.017852705 = weight(_text_:und in 934) [ClassicSimilarity], result of:
          0.017852705 = score(doc=934,freq=10.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.328536 = fieldWeight in 934, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
        0.016148118 = product of:
          0.032296237 = sum of:
            0.032296237 = weight(_text_:bibliothekswesen in 934) [ClassicSimilarity], result of:
              0.032296237 = score(doc=934,freq=2.0), product of:
                0.109291784 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.024517681 = queryNorm
                0.2955047 = fieldWeight in 934, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
          0.5 = coord(1/2)
        0.032296237 = weight(_text_:bibliothekswesen in 934) [ClassicSimilarity], result of:
          0.032296237 = score(doc=934,freq=2.0), product of:
            0.109291784 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.024517681 = queryNorm
            0.2955047 = fieldWeight in 934, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
        0.022494808 = weight(_text_:im in 934) [ClassicSimilarity], result of:
          0.022494808 = score(doc=934,freq=6.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.32457113 = fieldWeight in 934, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=934)
        0.009807767 = product of:
          0.019615535 = sum of:
            0.019615535 = weight(_text_:1 in 934) [ClassicSimilarity], result of:
              0.019615535 = score(doc=934,freq=8.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.32568932 = fieldWeight in 934, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
    Source
    o-bib: Das offene Bibliotheksjournal. 10(2023) Nr.1, S.1-15
  18. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.02
    0.02134841 = product of:
      0.12275335 = sum of:
        0.023047743 = weight(_text_:und in 128) [ClassicSimilarity], result of:
          0.023047743 = score(doc=128,freq=24.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.42413816 = fieldWeight in 128, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.044441395 = weight(_text_:katalogisierung in 128) [ClassicSimilarity], result of:
          0.044441395 = score(doc=128,freq=2.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.3164402 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.044441395 = weight(_text_:katalogisierung in 128) [ClassicSimilarity], result of:
          0.044441395 = score(doc=128,freq=2.0), product of:
            0.14044169 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.024517681 = queryNorm
            0.3164402 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
        0.010822819 = weight(_text_:im in 128) [ClassicSimilarity], result of:
          0.010822819 = score(doc=128,freq=2.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.15615936 = fieldWeight in 128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=128)
      0.17391305 = coord(4/23)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
    Footnote
    Vortrag im Rahmen des Berliner Arbeitskreis Information (BAK) am 25.02.2021.
  19. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : das Verlangen nach einer verständlichen Wissenschaftssprache (2020) 0.02
    0.020806432 = product of:
      0.11963698 = sum of:
        0.021123607 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.021123607 = score(doc=5684,freq=14.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.06596269 = weight(_text_:informationswissenschaft in 5684) [ClassicSimilarity], result of:
          0.06596269 = score(doc=5684,freq=8.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.5972451 = fieldWeight in 5684, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.022494808 = weight(_text_:im in 5684) [ClassicSimilarity], result of:
          0.022494808 = score(doc=5684,freq=6.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.32457113 = fieldWeight in 5684, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.010055881 = product of:
          0.020111762 = sum of:
            0.020111762 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.020111762 = score(doc=5684,freq=2.0), product of:
                0.08624554 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.024517681 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Informationskompetenz in den Bibliotheken und in der Informationswissenschaft. Es ist erschreckend, dass im Zeitalter der vieldiskutierten "Desinformationen" und "Fake News" im Medienbereich der einzige Beitrag der Informationswissenschaft in der Betonung einer irgendwie ausgestalteten "Informationskompetenz", manchmal ergänzt um eine ebenso imaginäre "Medienkompetenz" besteht. Man möchte sich gern zum verbindlichen Entscheider darüber erklären, was wahre und falsche Information, was Hate Speech und Fakten sind. Der Türöffner dafür soll das bibliothekarisch besetzte Feld der "Informationskompetenz" sein, dass man nunmehr für den Gesamtbereich der "Information" besetzen möchte. Die ursprüngliche Beschränkung der bibliothekarischen Domäne der Informationskompetenz auf eine berufsrelevante Vermittlung von InformationsSUCHkompetenz wird dafür geopfert. Der Ursprung des Begriffes "Informationskompetenz" liegt im Bibliotheksbereich und sollte dort beheimatet bleiben.
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
    Field
    Informationswissenschaft
    Series
    Zukunft der Informationswissenschaft
  20. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.02
    0.020397525 = product of:
      0.09382862 = sum of:
        0.017603004 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.017603004 = score(doc=338,freq=14.0), product of:
            0.05434018 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024517681 = queryNorm
            0.32394084 = fieldWeight in 338, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.047604475 = weight(_text_:informationswissenschaft in 338) [ClassicSimilarity], result of:
          0.047604475 = score(doc=338,freq=6.0), product of:
            0.11044492 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.024517681 = queryNorm
            0.43102458 = fieldWeight in 338, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.015305777 = weight(_text_:im in 338) [ClassicSimilarity], result of:
          0.015305777 = score(doc=338,freq=4.0), product of:
            0.06930625 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.024517681 = queryNorm
            0.22084267 = fieldWeight in 338, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
        0.0057792827 = product of:
          0.011558565 = sum of:
            0.011558565 = weight(_text_:1 in 338) [ClassicSimilarity], result of:
              0.011558565 = score(doc=338,freq=4.0), product of:
                0.06022775 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.024517681 = queryNorm
                0.19191428 = fieldWeight in 338, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=338)
          0.5 = coord(1/2)
        0.007536076 = product of:
          0.015072152 = sum of:
            0.015072152 = weight(_text_:international in 338) [ClassicSimilarity], result of:
              0.015072152 = score(doc=338,freq=2.0), product of:
                0.08178804 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.024517681 = queryNorm
                0.18428308 = fieldWeight in 338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Wenn ein Programmkomitee für ein wissenschaftliches Symposium mit 65 Personen besetzt wird, dann darf man sich auf ein breites und qualitativ fundiertes Programm und Symposium freuen, auch wenn der Abstimmungsbedarf zwischen den 65 Komiteemitgliedern extrem aufwendig gewesen sein muss. Coronabedingt musste das dreitätige Symposium virtuell stattfinden und organisiert werden. Dennoch wurde als offizieller Tagungsort Regensburg gewählt und wohl auch in Erinnerung an den leider viel zu früh verstorbenen Rainer Hammwöhner das Thema "Information Science and its Neighbours from Data Science to Digital Humanities" im Subtitel des Tagungsthemas "Information between Data and Knowledge" gewählt. Schließlich war es Rainer Hammwöhner (in Zusammenarbeit mit David Elsweiler und Christian Wolff), der schon 2015 auf den für die deutschsprachige Informationswissenschaft erschreckenden Tatbestand einer langjährig naiv anmutenden Ignoranz des internationalen "Information Behavior"-Forschungsfeldes hinwies: "Man wird der deutschsprachigen Informationswissenschaft nicht wirklich unrecht tun, wenn man sie in Sachen Informationsverhalten als Spätentwickler charakterisiert. Einem der Herausgeber dieses Themenheftes ist diesbezüglich noch gut in Erinnerung, wie er 2007 im Rahmen des informationswissenschaftlichen Symposiums in Köln von einem Kollegen aus Down Under gefragt wurde, warum es denn in Deutschland keine Forschung zu diesem Thema gebe, wo dies doch in der englischsprachigen Community seit Jahren ein heißes Thema sei" (David Elsweiler, Rainer Hammwöhner und Christian Wolff, Regensburg: Informationsverhalten als Forschungsgegenstand, in: Information. Wissenschaft & Praxis 2015; 66(1): 1-2).
    Field
    Informationswissenschaft

Languages

  • d 428
  • e 316
  • pt 4
  • m 2
  • sp 1
  • More… Less…

Types

  • a 621
  • el 243
  • m 59
  • s 7
  • p 6
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications