Search (1237 results, page 1 of 62)

  • × year_i:[2020 TO 2030}
  1. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.21
    0.21342555 = product of:
      0.5691348 = sum of:
        0.04333372 = product of:
          0.13000116 = sum of:
            0.13000116 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.13000116 = score(doc=862,freq=2.0), product of:
                0.23131137 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027283683 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.13000116 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13000116 = score(doc=862,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.13000116 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13000116 = score(doc=862,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.13000116 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13000116 = score(doc=862,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0057964255 = weight(_text_:in in 862) [ClassicSimilarity], result of:
          0.0057964255 = score(doc=862,freq=6.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.1561842 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.13000116 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.13000116 = score(doc=862,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.375 = coord(6/16)
    
    Abstract
    This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges- summary and question answering- prompt ChatGPT to produce original content (98-99%) from a single text entry and sequential questions initially posed by Turing in 1950. We score the original and generated content against the OpenAI GPT-2 Output Detector from 2019, and establish multiple cases where the generated content proves original and undetectable (98%). The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, overall quality, and plagiarism risks. While Turing's original prose scores at least 14% below the machine-generated output, whether an algorithm displays hints of Turing's true initial thoughts (the "Lovelace 2.0" test) remains unanswerable.
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.21
    0.21271977 = product of:
      0.4862166 = sum of:
        0.036111437 = product of:
          0.1083343 = sum of:
            0.1083343 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.1083343 = score(doc=1000,freq=2.0), product of:
                0.23131137 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027283683 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.1083343 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1083343 = score(doc=1000,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012823956 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012823956 = score(doc=1000,freq=6.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.1083343 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1083343 = score(doc=1000,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.1083343 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1083343 = score(doc=1000,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.003943968 = weight(_text_:in in 1000) [ClassicSimilarity], result of:
          0.003943968 = score(doc=1000,freq=4.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.10626988 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.1083343 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1083343 = score(doc=1000,freq=2.0), product of:
            0.23131137 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027283683 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4375 = coord(7/16)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.20
    0.2047847 = product of:
      0.46807933 = sum of:
        0.11775109 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
          0.11775109 = score(doc=222,freq=8.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.7564393 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.07819474 = weight(_text_:buch in 222) [ClassicSimilarity], result of:
          0.07819474 = score(doc=222,freq=8.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.6164252 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.032034233 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.032034233 = score(doc=222,freq=26.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.035939787 = product of:
          0.07187957 = sum of:
            0.07187957 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
              0.07187957 = score(doc=222,freq=8.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5910094 = fieldWeight in 222, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
        0.07340437 = weight(_text_:informationswissenschaft in 222) [ClassicSimilarity], result of:
          0.07340437 = score(doc=222,freq=8.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.5972451 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.07187957 = weight(_text_:bibliothekswesen in 222) [ClassicSimilarity], result of:
          0.07187957 = score(doc=222,freq=8.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.5910094 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.058875546 = product of:
          0.11775109 = sum of:
            0.11775109 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
              0.11775109 = score(doc=222,freq=8.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.7564393 = fieldWeight in 222, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.5 = coord(1/2)
      0.4375 = coord(7/16)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
  4. Gartner, R.: Metadata in the digital library : building an integrated strategy with XML (2021) 0.08
    0.08346413 = product of:
      0.16692826 = sum of:
        0.041631296 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
          0.041631296 = score(doc=732,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.2674417 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.027646014 = weight(_text_:buch in 732) [ClassicSimilarity], result of:
          0.027646014 = score(doc=732,freq=4.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.21793923 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0062824297 = weight(_text_:und in 732) [ClassicSimilarity], result of:
          0.0062824297 = score(doc=732,freq=4.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.10389221 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.012706634 = product of:
          0.025413267 = sum of:
            0.025413267 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
              0.025413267 = score(doc=732,freq=4.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.20895338 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
        0.025952367 = weight(_text_:informationswissenschaft in 732) [ClassicSimilarity], result of:
          0.025952367 = score(doc=732,freq=4.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.21115804 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.025413267 = weight(_text_:bibliothekswesen in 732) [ClassicSimilarity], result of:
          0.025413267 = score(doc=732,freq=4.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.20895338 = fieldWeight in 732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.0064806016 = weight(_text_:in in 732) [ClassicSimilarity], result of:
          0.0064806016 = score(doc=732,freq=30.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.17461926 = fieldWeight in 732, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=732)
        0.020815648 = product of:
          0.041631296 = sum of:
            0.041631296 = weight(_text_:allgemeines in 732) [ClassicSimilarity], result of:
              0.041631296 = score(doc=732,freq=4.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.2674417 = fieldWeight in 732, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=732)
          0.5 = coord(1/2)
      0.5 = coord(8/16)
    
    Abstract
    This book provides a practical introduction to metadata for the digital library, describing in detail how to implement a strategic approach which will enable complex digital objects to be discovered, delivered and preserved in the short- and long-term.
    The range of metadata needed to run a digital library and preserve its collections in the long term is much more extensive and complicated than anything in its traditional counterpart. It includes the same 'descriptive' information which guides users to the resources they require but must supplement this with comprehensive 'administrative' metadata: this encompasses technical details of the files that make up its collections, the documentation of complex intellectual property rights and the extensive set needed to support its preservation in the long-term. To accommodate all of this requires the use of multiple metadata standards, all of which have to be brought together into a single integrated whole.
    Metadata in the Digital Library is a complete guide to building a digital library metadata strategy from scratch, using established metadata standards bound together by the markup language XML. The book introduces the reader to the theory of metadata and shows how it can be applied in practice. It lays out the basic principles that should underlie any metadata strategy, including its relation to such fundamentals as the digital curation lifecycle, and demonstrates how they should be put into effect. It introduces the XML language and the key standards for each type of metadata, including Dublin Core and MODS for descriptive metadata and PREMIS for its administrative and preservation counterpart. Finally, the book shows how these can all be integrated using the packaging standard METS. Two case studies from the Warburg Institute in London show how the strategy can be implemented in a working environment. The strategy laid out in this book will ensure that a digital library's metadata will support all of its operations, be fully interoperable with others and enable its long-term preservation. It assumes no prior knowledge of metadata, XML or any of the standards that it covers. It provides both an introduction to best practices in digital library metadata and a manual for their practical implementation.
    Classification
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Content
    Inhalt: 1 Introduction, Aims and Definitions -- 1.1 Origins -- 1.2 From information science to libraries -- 1.3 The central place of metadata -- 1.4 The book in outline -- 2 Metadata Basics -- 2.1 Introduction -- 2.2 Three types of metadata -- 2.2.1 Descriptive metadata -- 2.2.2 Administrative metadata -- 2.2.3 Structural metadata -- 2.3 The core components of metadata -- 2.3.1 Syntax -- 2.3.2 Semantics -- 2.3.3 Content rules -- 2.4 Metadata standards -- 2.5 Conclusion -- 3 Planning a Metadata Strategy: Basic Principles -- 3.1 Introduction -- 3.2 Principle 1: Support all stages of the digital curation lifecycle -- 3.3 Principle 2: Support the long-term preservation of the digital object -- 3.4 Principle 3: Ensure interoperability -- 3.5 Principle 4: Control metadata content wherever possible -- 3.6 Principle 5: Ensure software independence -- 3.7 Principle 6: Impose a logical system of identifiers -- 3.8 Principle 7: Use standards whenever possible -- 3.9 Principle 8: Ensure the integrity of the metadata itself -- 3.10 Summary: the basic principles of a metadata strategy -- 4 Planning a Metadata Strategy: Applying the Basic Principles -- 4.1 Introduction -- 4.2 Initial steps: standards as a foundation -- 4.2.1 'Off-the shelf' standards -- 4.2.2 Mapping out an architecture and serialising it into a standard -- 4.2.3 Devising a local metadata scheme -- 4.2.4 How standards support the basic principles -- 4.3 Identifiers: everything in its place -- 5 XML: The Syntactical Foundation of Metadata -- 5.1 Introduction -- 5.2 What XML looks like -- 5.3 XML schemas -- 5.4 Namespaces -- 5.5 Creating and editing XML -- 5.6 Transforming XML -- 5.7 Why use XML? -- 6 METS: The Metadata Package -- 6.1 Introduction -- 6.2 Why use METS?.
    Footnote
    Rez. in: Cataloging and classification quarterly. 60(2022) no.3/4, p.329-331 (Erica Zhang).
    RVK
    AN 73700: Digitale Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
  5. Gierke, B.: ¬Der Fachinformationsdienst Buch-, Bibliotheks- und Informationswissenschaft : eine Kurzvorstellung (2020) 0.06
    0.06079211 = product of:
      0.19453475 = sum of:
        0.05529203 = weight(_text_:buch in 5709) [ClassicSimilarity], result of:
          0.05529203 = score(doc=5709,freq=4.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.43587846 = fieldWeight in 5709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.021762975 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
          0.021762975 = score(doc=5709,freq=12.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.35989314 = fieldWeight in 5709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.017969893 = product of:
          0.035939787 = sum of:
            0.035939787 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
              0.035939787 = score(doc=5709,freq=2.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.2955047 = fieldWeight in 5709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5709)
          0.5 = coord(1/2)
        0.06357006 = weight(_text_:informationswissenschaft in 5709) [ClassicSimilarity], result of:
          0.06357006 = score(doc=5709,freq=6.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.5172295 = fieldWeight in 5709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
        0.035939787 = weight(_text_:bibliothekswesen in 5709) [ClassicSimilarity], result of:
          0.035939787 = score(doc=5709,freq=2.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.2955047 = fieldWeight in 5709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=5709)
      0.3125 = coord(5/16)
    
    Abstract
    Im Rahmen des DFG Förderprogramms Fachinformationsdienste (FID) nahm der FID Buch- Bibliotheks- und Informationswissenschaft, eine Kooperation der Herzog August Bibliothek Wolfenbüttel und der Universitätsbibliothek Leipzig, im Oktober 2017 seine Arbeit auf. Ziel ist, die Spitzenversorgung mit Literatur für Wissenschaftlerinnen und Wissenschaftler dieser und angrenzenden Disziplinen sicher zu stellen. Dazu hat der FID BBI ein Discovery Tool entwickelt. Grundlage dafür ist die Open-Source-Software VuFind. Eine Herausforderung für den FID BBI ist die Auswertung unterschiedlichster Datenquellen, weil die Themengebiete des FID BBI sehr weit gefächert sind. Das Portal bietet einen schnellen Rechercheeinstieg. Es ist aber auch möglich komplexere Suchanfragen zu stellen. Der Kontakt zu der wissenschaftlichen Gemeinschaft, die der FID BBI bedient, hat große Priorität, um die Ziele, die von der Deutschen Forschungsgemeinschaft gesetzt wurden, zu erfüllen. Ein erster Kontakt kann über das Nachweisportal hergestellt werden: https://katalog.fid-bbi.de.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.1, S.43-48
  6. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.05
    0.054614738 = product of:
      0.17476717 = sum of:
        0.07850073 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
          0.07850073 = score(doc=752,freq=8.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.5042929 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.026064914 = weight(_text_:buch in 752) [ClassicSimilarity], result of:
          0.026064914 = score(doc=752,freq=2.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.20547508 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.02648905 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.02648905 = score(doc=752,freq=40.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.0044620903 = weight(_text_:in in 752) [ClassicSimilarity], result of:
          0.0044620903 = score(doc=752,freq=8.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.120230645 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.039250366 = product of:
          0.07850073 = sum of:
            0.07850073 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
              0.07850073 = score(doc=752,freq=8.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5042929 = fieldWeight in 752, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    Footnote
    Rez. in Spektrum der Wissenschaft. 2022, H.11, S.86 (M. Springer).
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  7. Seemann, M.: ¬Die Macht der Plattformen : Politik in Zeiten der Internetgiganten (2021) 0.05
    0.05260229 = product of:
      0.16832733 = sum of:
        0.07850073 = weight(_text_:allgemeines in 553) [ClassicSimilarity], result of:
          0.07850073 = score(doc=553,freq=8.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.5042929 = fieldWeight in 553, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.026064914 = weight(_text_:buch in 553) [ClassicSimilarity], result of:
          0.026064914 = score(doc=553,freq=2.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.20547508 = fieldWeight in 553, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.021356154 = weight(_text_:und in 553) [ClassicSimilarity], result of:
          0.021356154 = score(doc=553,freq=26.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.3531656 = fieldWeight in 553, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.0031551744 = weight(_text_:in in 553) [ClassicSimilarity], result of:
          0.0031551744 = score(doc=553,freq=4.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.08501591 = fieldWeight in 553, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.039250366 = product of:
          0.07850073 = sum of:
            0.07850073 = weight(_text_:allgemeines in 553) [ClassicSimilarity], result of:
              0.07850073 = score(doc=553,freq=8.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5042929 = fieldWeight in 553, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=553)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Plattformen sind mehr als Unternehmen, sie sind die Herrschaftszentren unserer Zeit. Facebook, Google und Amazon ersetzen Marktplätze und öffentlichen Räume, doch sie entscheiden darüber, wer sich dort aufhalten darf und welche Regeln gelten. Von Staaten sind sie kaum zu kontrollieren, sie agieren selbst wie welche. Mehr noch: Plattformen stellen gängige Konzepte von Kapitalismus, Eigentum und Demokratie in Frage. Michael Seemann zeigt, was Plattformen ausmacht, woher ihre Macht kommt, wie sich mit ihnen umgehen lässt und welche Zukunft sie haben
    BK
    05.20 Kommunikation und Gesellschaft
    Classification
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    05.20 Kommunikation und Gesellschaft
    Content
    Vgl.: Rez. unter: https://www.perlentaucher.de/buch/michael-seemann/die-macht-der-plattformen.html; https://www.rkm-journal.de/archives/23149 (H.-D. Kübler)).
    RVK
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
  8. Reus, G.: Sprache in den Medien (2020) 0.04
    0.04417403 = product of:
      0.17669612 = sum of:
        0.0971397 = weight(_text_:allgemeines in 219) [ClassicSimilarity], result of:
          0.0971397 = score(doc=219,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.62403065 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.02317792 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.02317792 = score(doc=219,freq=10.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.38329202 = fieldWeight in 219, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.007808658 = weight(_text_:in in 219) [ClassicSimilarity], result of:
          0.007808658 = score(doc=219,freq=8.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.21040362 = fieldWeight in 219, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.04856985 = product of:
          0.0971397 = sum of:
            0.0971397 = weight(_text_:allgemeines in 219) [ClassicSimilarity], result of:
              0.0971397 = score(doc=219,freq=4.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.62403065 = fieldWeight in 219, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=219)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Seit es Massenmedien gibt, machen Kulturkritiker sie verantwortlich für einen vermeintlichen Verfall der Sprache. Doch eine solche Anschuldigung ist unhaltbar. Sprache verändert sich ständig, weil sich die Gesellschaft wandelt. Massenmedien greifen diese Veränderungen in Wortschatz und Syntax auf und spiegeln sie in die Gesellschaft zurück. Motor und Ursprung von "Sprachverderb" aber sind sie keineswegs. Vielmehr erschließen sie der Gesellschaft Vielfalt und Reichtum von Ausdrucksmöglichkeiten. Sie machen Sprache als Kulturleistung zugänglich und die Welt mit Sprache verständlich.
    BK
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
    Classification
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2021, H.5, S.94 (V. Binder).
  9. Wiesenmüller, H.: Formale Erschließung (2023) 0.04
    0.042133626 = product of:
      0.1348276 = sum of:
        0.03909737 = weight(_text_:buch in 784) [ClassicSimilarity], result of:
          0.03909737 = score(doc=784,freq=2.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.3082126 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.026654093 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.026654093 = score(doc=784,freq=18.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.4407773 = fieldWeight in 784, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.036702186 = weight(_text_:informationswissenschaft in 784) [ClassicSimilarity], result of:
          0.036702186 = score(doc=784,freq=2.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.29862255 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.0066931355 = weight(_text_:in in 784) [ClassicSimilarity], result of:
          0.0066931355 = score(doc=784,freq=8.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.18034597 = fieldWeight in 784, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.025680823 = weight(_text_:bibliotheken in 784) [ClassicSimilarity], result of:
          0.025680823 = score(doc=784,freq=2.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.24979347 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.3125 = coord(5/16)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  10. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.04
    0.041838832 = product of:
      0.13388427 = sum of:
        0.04856985 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
          0.04856985 = score(doc=1186,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.31201532 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.022806799 = weight(_text_:buch in 1186) [ClassicSimilarity], result of:
          0.022806799 = score(doc=1186,freq=2.0), product of:
            0.12685195 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.027283683 = queryNorm
            0.17979069 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0323662 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.0323662 = score(doc=1186,freq=78.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0058564935 = weight(_text_:in in 1186) [ClassicSimilarity], result of:
          0.0058564935 = score(doc=1186,freq=18.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.15780272 = fieldWeight in 1186, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.024284925 = product of:
          0.04856985 = sum of:
            0.04856985 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
              0.04856985 = score(doc=1186,freq=4.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.31201532 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    BK
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Classification
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  11. Graf, K.: Zur Open-Access-Heuchelei der Bibliotheken : sie lassen ihr Repositorium e-LiS verkommen (2021) 0.04
    0.041468535 = product of:
      0.16587414 = sum of:
        0.035939787 = product of:
          0.07187957 = sum of:
            0.07187957 = weight(_text_:bibliothekswesen in 396) [ClassicSimilarity], result of:
              0.07187957 = score(doc=396,freq=2.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5910094 = fieldWeight in 396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.09375 = fieldNorm(doc=396)
          0.5 = coord(1/2)
        0.07187957 = weight(_text_:bibliothekswesen in 396) [ClassicSimilarity], result of:
          0.07187957 = score(doc=396,freq=2.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.5910094 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.09375 = fieldNorm(doc=396)
        0.0066931355 = weight(_text_:in in 396) [ClassicSimilarity], result of:
          0.0066931355 = score(doc=396,freq=2.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.18034597 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=396)
        0.051361647 = weight(_text_:bibliotheken in 396) [ClassicSimilarity], result of:
          0.051361647 = score(doc=396,freq=2.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.49958694 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.09375 = fieldNorm(doc=396)
      0.25 = coord(4/16)
    
    Content
    Vgl. auch den Post des Autors in Inetbib vom 27.12.2021.
    Field
    Bibliothekswesen
  12. Boczkowski, P.; Mitchelstein, E.: ¬The digital environment : How we live, learn, work, and play now (2021) 0.04
    0.035308704 = product of:
      0.14123482 = sum of:
        0.055508398 = weight(_text_:allgemeines in 1003) [ClassicSimilarity], result of:
          0.055508398 = score(doc=1003,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.35658893 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.008376573 = weight(_text_:und in 1003) [ClassicSimilarity], result of:
          0.008376573 = score(doc=1003,freq=4.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.13852294 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.007055185 = weight(_text_:in in 1003) [ClassicSimilarity], result of:
          0.007055185 = score(doc=1003,freq=20.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.19010136 = fieldWeight in 1003, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.07029465 = sum of:
          0.055508398 = weight(_text_:allgemeines in 1003) [ClassicSimilarity], result of:
            0.055508398 = score(doc=1003,freq=4.0), product of:
              0.15566495 = queryWeight, product of:
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.027283683 = queryNorm
              0.35658893 = fieldWeight in 1003, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.705423 = idf(docFreq=399, maxDocs=44218)
                0.03125 = fieldNorm(doc=1003)
          0.01478625 = weight(_text_:22 in 1003) [ClassicSimilarity], result of:
            0.01478625 = score(doc=1003,freq=2.0), product of:
              0.09554281 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.027283683 = queryNorm
              0.15476047 = fieldWeight in 1003, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1003)
      0.25 = coord(4/16)
    
    Abstract
    Increasingly we live through our personal screens; we work, play, socialize, and learn digitally. The shift to remote everything during the pandemic was another step in a decades-long march toward the digitization of everyday life made possible by innovations in media, information, and communication technology. In The Digital Environment, Pablo Boczkowski and Eugenia Mitchelstein offer a new way to understand the role of the digital in our daily lives, calling on us to turn our attention from our discrete devices and apps to the array of artifacts and practices that make up the digital environment that envelops every aspect of our social experience. Boczkowski and Mitchelstein explore a series of issues raised by the digital takeover of everyday life, drawing on interviews with a variety of experts. They show how existing inequities of gender, race, ethnicity, education, and class are baked into the design and deployment of technology, and describe emancipatory practices that counter this--including the use of Twitter as a platform for activism through such hashtags as #BlackLivesMatter and #MeToo. They discuss the digitization of parenting, schooling, and dating--noting, among other things, that today we can both begin and end relationships online. They describe how digital media shape our consumption of sports, entertainment, and news, and consider the dynamics of political campaigns, disinformation, and social activism. Finally, they report on developments in three areas that will be key to our digital future: data science, virtual reality, and space exploration.
    Argues for a holistic view of the digital environment in which many of us now live, as neither determined by the features of technology nor uniformly negative for society.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    1. Three Environments, One Life -- Part I: Foundations -- 2. Mediatization -- 3. Algorithms -- 4. Race and Ethnicity -- 5. Gender -- Part II: Institutions -- 6. Parenting -- 7. Schooling -- 8. Working -- 9. Dating -- Part III: Leisure -- 10. Sports -- 11. Televised Entertainment -- 12. News -- Part IV: Politics -- 13. Misinformation and Disinformation -- 14. Electoral Campaigns -- 15. Activism -- Part V: Innovations -- 16. Data Science -- 17. Virtual Reality -- 18. Space Exploration -- 19. Bricks and Cracks in the Digital Environment
    Date
    22. 6.2023 18:25:18
    Footnote
    Rez. in: JASIST 74(2023) no.7, S.879-881 (Tim Jordan)
    RVK
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
  13. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.04
    0.035267003 = product of:
      0.14106801 = sum of:
        0.0693855 = weight(_text_:allgemeines in 755) [ClassicSimilarity], result of:
          0.0693855 = score(doc=755,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.44573617 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.03141215 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.03141215 = score(doc=755,freq=36.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.005577613 = weight(_text_:in in 755) [ClassicSimilarity], result of:
          0.005577613 = score(doc=755,freq=8.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.15028831 = fieldWeight in 755, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.03469275 = product of:
          0.0693855 = sum of:
            0.0693855 = weight(_text_:allgemeines in 755) [ClassicSimilarity], result of:
              0.0693855 = score(doc=755,freq=4.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.44573617 = fieldWeight in 755, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=755)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
  14. Dijk, J: ¬The digital divide (2020) 0.04
    0.03520133 = product of:
      0.14080532 = sum of:
        0.08326259 = weight(_text_:allgemeines in 68) [ClassicSimilarity], result of:
          0.08326259 = score(doc=68,freq=4.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.5348834 = fieldWeight in 68, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=68)
        0.012564859 = weight(_text_:und in 68) [ClassicSimilarity], result of:
          0.012564859 = score(doc=68,freq=4.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.20778441 = fieldWeight in 68, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=68)
        0.0033465677 = weight(_text_:in in 68) [ClassicSimilarity], result of:
          0.0033465677 = score(doc=68,freq=2.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.09017298 = fieldWeight in 68, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=68)
        0.041631296 = product of:
          0.08326259 = sum of:
            0.08326259 = weight(_text_:allgemeines in 68) [ClassicSimilarity], result of:
              0.08326259 = score(doc=68,freq=4.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5348834 = fieldWeight in 68, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.046875 = fieldNorm(doc=68)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Classification
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
    Footnote
    Rez. in: JASIST 72(2021) no.1, S.136-138 (Rebecca Reynolds).
    RVK
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
  15. Cooke, N.A.; Kitzie, V.L.: Outsiders-within-Library and Information Science : reprioritizing the marginalized in critical sociocultural work (2021) 0.03
    0.03359312 = product of:
      0.107497975 = sum of:
        0.017969893 = product of:
          0.035939787 = sum of:
            0.035939787 = weight(_text_:bibliothekswesen in 351) [ClassicSimilarity], result of:
              0.035939787 = score(doc=351,freq=2.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.2955047 = fieldWeight in 351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=351)
          0.5 = coord(1/2)
        0.036702186 = weight(_text_:informationswissenschaft in 351) [ClassicSimilarity], result of:
          0.036702186 = score(doc=351,freq=2.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.29862255 = fieldWeight in 351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=351)
        0.035939787 = weight(_text_:bibliothekswesen in 351) [ClassicSimilarity], result of:
          0.035939787 = score(doc=351,freq=2.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.2955047 = fieldWeight in 351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=351)
        0.0057964255 = weight(_text_:in in 351) [ClassicSimilarity], result of:
          0.0057964255 = score(doc=351,freq=6.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.1561842 = fieldWeight in 351, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=351)
        0.011089687 = product of:
          0.022179374 = sum of:
            0.022179374 = weight(_text_:22 in 351) [ClassicSimilarity], result of:
              0.022179374 = score(doc=351,freq=2.0), product of:
                0.09554281 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027283683 = queryNorm
                0.23214069 = fieldWeight in 351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=351)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    While there are calls for new paradigms within the profession, there are also existing subgenres that fit this bill if they would be fully acknowledged. This essay argues that underrepresented and otherwise marginalized scholars have already produced significant work within social, cultural, and community-oriented paradigms; social justice and advocacy; and, diversity, equity, and inclusion. This work has not been sufficiently valued or promoted. Furthermore, the surrounding structural conditions have resulted in the dismissal, violently reviewed and rejected, and erased work of underrepresented scholars, and the stigmatization and delegitimization of their work. These scholars are "outsiders-within-LIS." By identifying the outsiders-within-LIS through the frame of standpoint theories, the authors are suggesting that a new paradigm does not need to be created; rather, an existing paradigm needs to be recognized and reprioritized. This reprioritized paradigm of critical sociocultural work has and will continue to creatively enrich and expand the field and decolonize LIS curricula.
    Date
    18. 9.2021 13:22:27
    Field
    Bibliothekswesen
    Informationswissenschaft
    Series
    Special issue: Paradigm shift in the field of information
  16. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung (2020) 0.03
    0.033429045 = product of:
      0.13371618 = sum of:
        0.017769394 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.017769394 = score(doc=5911,freq=8.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.082068585 = weight(_text_:informationswissenschaft in 5911) [ClassicSimilarity], result of:
          0.082068585 = score(doc=5911,freq=10.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.66774035 = fieldWeight in 5911, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.008197384 = weight(_text_:in in 5911) [ClassicSimilarity], result of:
          0.008197384 = score(doc=5911,freq=12.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.22087781 = fieldWeight in 5911, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.025680823 = weight(_text_:bibliotheken in 5911) [ClassicSimilarity], result of:
          0.025680823 = score(doc=5911,freq=2.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.24979347 = fieldWeight in 5911, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
      0.25 = coord(4/16)
    
    Abstract
    Information als "Wissen in Aktion" zu definieren, scheint der Informationswissenschaft zu reichen. Und das in einer Welt, wie das Fachportal woxiwon (https://synonyme.woxikon.de/synonyme/information.php) ausweist, bei über 460 Synonyma für den Begriff "Information", die in fast dreißig Gruppen geclustert sind. Cluster 1: "Aufmerksamkeit" mit den Dimensionen der Nutzererwartungen "Aktualität", "Werbung", "Schlagzeilen" sowie "Provokation durch Fake & Klatsch". Cluster 2: "Verbundenheit" Cluster 3: "Gemeinsamkeit" Cluster 4: "Intellektuelle Leistung"
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff. Unter: Open Password. 2020, Nr.759 vom 25. Mai 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ]. Weitere Fortsetzung als: Informationskompetenz in den Bibliotheken und in der Informationswissenschaft - Das Verlangen nach einer verständlichen Wissenschaftssprache. In: Open Password. 2020, Nr.784 vom 09. Juli 2020. Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzExNiwiM2Y4YjgwNDBiM2QxIiwwLDAsMTA2LDFd.
    Field
    Informationswissenschaft
    Series
    Zukunft der Informationswissenschaft
  17. Aral, S.: ¬The hype machine : how social media disrupts our elections, our economy, and our health - and how we must adapt (2020) 0.03
    0.032779112 = product of:
      0.13111645 = sum of:
        0.07850073 = weight(_text_:allgemeines in 550) [ClassicSimilarity], result of:
          0.07850073 = score(doc=550,freq=8.0), product of:
            0.15566495 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.027283683 = queryNorm
            0.5042929 = fieldWeight in 550, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=550)
        0.008376573 = weight(_text_:und in 550) [ClassicSimilarity], result of:
          0.008376573 = score(doc=550,freq=4.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.13852294 = fieldWeight in 550, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=550)
        0.004988769 = weight(_text_:in in 550) [ClassicSimilarity], result of:
          0.004988769 = score(doc=550,freq=10.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.13442196 = fieldWeight in 550, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=550)
        0.039250366 = product of:
          0.07850073 = sum of:
            0.07850073 = weight(_text_:allgemeines in 550) [ClassicSimilarity], result of:
              0.07850073 = score(doc=550,freq=8.0), product of:
                0.15566495 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.027283683 = queryNorm
                0.5042929 = fieldWeight in 550, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=550)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Social media connected the world--and gave rise to fake news and increasing polarization. Now a leading researcher at MIT draws on 20 years of research to show how these trends threaten our political, economic, and emotional health in this eye-opening exploration of the dark side of technological progress. Today we have the ability, unprecedented in human history, to amplify our interactions with each other through social media. It is paramount, MIT social media expert Sinan Aral says, that we recognize the outsized impact social media has on our culture, our democracy, and our lives in order to steer today's social technology toward good, while avoiding the ways it can pull us apart. Otherwise, we could fall victim to what Aral calls "The Hype Machine." As a senior researcher of the longest-running study of fake news ever conducted, Aral found that lies spread online farther and faster than the truth--a harrowing conclusion that was featured on the cover of Science magazine. Among the questions Aral explores following twenty years of field research: Did Russian interference change the 2016 election? And how is it affecting the vote in 2020? Why does fake news travel faster than the truth online? How do social ratings and automated sharing determine which products succeed and fail? How does social media affect our kids? First, Aral links alarming data and statistics to three accelerating social media shifts: hyper-socialization, personalized mass persuasion, and the tyranny of trends. Next, he grapples with the consequences of the Hype Machine for elections, businesses, dating, and health. Finally, he maps out strategies for navigating the Hype Machine, offering his singular guidance for managing social media to fulfill its promise going forward. Rarely has a book so directly wrestled with the secret forces that drive the news cycle every day"
    BK
    05.20 Kommunikation und Gesellschaft
    05.30 Massenkommunikation Massenmedien: Allgemeines
    83.00 (Volkswirtschaft: Allgemeines)
    Classification
    05.20 Kommunikation und Gesellschaft
    05.30 Massenkommunikation Massenmedien: Allgemeines
    83.00 (Volkswirtschaft: Allgemeines)
    Footnote
    Rez. in: JASIST 73(2022) no. 5, S.752-754 (Waseem Afzal).
  18. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.03
    0.032126207 = product of:
      0.10280386 = sum of:
        0.019866787 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.019866787 = score(doc=537,freq=10.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.017969893 = product of:
          0.035939787 = sum of:
            0.035939787 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
              0.035939787 = score(doc=537,freq=2.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.2955047 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.035939787 = weight(_text_:bibliothekswesen in 537) [ClassicSimilarity], result of:
          0.035939787 = score(doc=537,freq=2.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.2955047 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.0033465677 = weight(_text_:in in 537) [ClassicSimilarity], result of:
          0.0033465677 = score(doc=537,freq=2.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.09017298 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.025680823 = weight(_text_:bibliotheken in 537) [ClassicSimilarity], result of:
          0.025680823 = score(doc=537,freq=2.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.24979347 = fieldWeight in 537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
      0.3125 = coord(5/16)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
  19. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : das Verlangen nach einer verständlichen Wissenschaftssprache (2020) 0.03
    0.03209708 = product of:
      0.12838832 = sum of:
        0.0235067 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.0235067 = score(doc=5684,freq=14.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.07340437 = weight(_text_:informationswissenschaft in 5684) [ClassicSimilarity], result of:
          0.07340437 = score(doc=5684,freq=8.0), product of:
            0.12290494 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.027283683 = queryNorm
            0.5972451 = fieldWeight in 5684, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0057964255 = weight(_text_:in in 5684) [ClassicSimilarity], result of:
          0.0057964255 = score(doc=5684,freq=6.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.1561842 = fieldWeight in 5684, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.025680823 = weight(_text_:bibliotheken in 5684) [ClassicSimilarity], result of:
          0.025680823 = score(doc=5684,freq=2.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.24979347 = fieldWeight in 5684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
      0.25 = coord(4/16)
    
    Abstract
    Informationskompetenz in den Bibliotheken und in der Informationswissenschaft. Es ist erschreckend, dass im Zeitalter der vieldiskutierten "Desinformationen" und "Fake News" im Medienbereich der einzige Beitrag der Informationswissenschaft in der Betonung einer irgendwie ausgestalteten "Informationskompetenz", manchmal ergänzt um eine ebenso imaginäre "Medienkompetenz" besteht. Man möchte sich gern zum verbindlichen Entscheider darüber erklären, was wahre und falsche Information, was Hate Speech und Fakten sind. Der Türöffner dafür soll das bibliothekarisch besetzte Feld der "Informationskompetenz" sein, dass man nunmehr für den Gesamtbereich der "Information" besetzen möchte. Die ursprüngliche Beschränkung der bibliothekarischen Domäne der Informationskompetenz auf eine berufsrelevante Vermittlung von InformationsSUCHkompetenz wird dafür geopfert. Der Ursprung des Begriffes "Informationskompetenz" liegt im Bibliotheksbereich und sollte dort beheimatet bleiben.
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
    Field
    Informationswissenschaft
    Series
    Zukunft der Informationswissenschaft
  20. Bredemeier, W.: Podiumsdiskussion "Zukunft wissenschaftlicher Bibliotheken?!" : Mit provokanten Thesen an neues Format angepasst (2020) 0.03
    0.02964763 = product of:
      0.094872415 = sum of:
        0.021762975 = weight(_text_:und in 5739) [ClassicSimilarity], result of:
          0.021762975 = score(doc=5739,freq=48.0), product of:
            0.060470656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.027283683 = queryNorm
            0.35989314 = fieldWeight in 5739, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.008984947 = product of:
          0.017969893 = sum of:
            0.017969893 = weight(_text_:bibliothekswesen in 5739) [ClassicSimilarity], result of:
              0.017969893 = score(doc=5739,freq=2.0), product of:
                0.12162171 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.027283683 = queryNorm
                0.14775234 = fieldWeight in 5739, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5739)
          0.5 = coord(1/2)
        0.017969893 = weight(_text_:bibliothekswesen in 5739) [ClassicSimilarity], result of:
          0.017969893 = score(doc=5739,freq=2.0), product of:
            0.12162171 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.027283683 = queryNorm
            0.14775234 = fieldWeight in 5739, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.0055496553 = weight(_text_:in in 5739) [ClassicSimilarity], result of:
          0.0055496553 = score(doc=5739,freq=22.0), product of:
            0.037112754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.027283683 = queryNorm
            0.14953499 = fieldWeight in 5739, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
        0.04060495 = weight(_text_:bibliotheken in 5739) [ClassicSimilarity], result of:
          0.04060495 = score(doc=5739,freq=20.0), product of:
            0.10280822 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.027283683 = queryNorm
            0.3949582 = fieldWeight in 5739, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5739)
      0.3125 = coord(5/16)
    
    Abstract
    Auf der Veranstaltung "Zukunft wissenschaftlicher Bibliotheken?!" in Trägerschaft von ZB MED und Open Password wurde die auf Präsenzveranstaltungen übliche Podiumsdiskussion durch eine virtuelle Lösung ersetzt. Diese wurde an das neue Format angepasst, weil man einander in einer virtuellen Veranstaltung "noch weniger ins Wort fallen kann" als auf einer Präsenztagung (Moderatorin Miriam Albers): Es wurden vorab teils provokante Thesen formuliert, zu denen die Referenten maximal zwei Minuten lang Stellung nehmen sollten. Von den vier Thesen sollten sie zu mindestens dreien einen Kommentar abgeben. Im Folgenden einige Kernthesen aus den Kommentaren, wie sie der Rezensent verstanden hat.
    Content
    These 1: Wissenschaftliche Bibliotheken zwischen Formalerschließung und Forschungsdatenmanagement: Was ist Kunst und was kann weg? Maschine, übernehmen Sie! Wir Humans wenden uns interessanteren Themen zu Bleiben muss, was tatsächlich nachgefragt und nach der Einschätzung und den Prognosen der Experten auf der Basis von Kriterien längerfristig aufgehoben werden sollte (selbst wenn momentan keine Nachfrage danach besteht). Es wird keine einfachen Antworten geben, aber es ist ein Stück bibliothekarische Kompetenz, diese Antworten zu finden (Nelle). Bleiben muss, was nachgefragt wird und der Community dient und eine starke Relevanz besitzt. Gute Kunst ist, was von Herzen kommt und authentisch ist. Also sollte man nicht alles mitmachen, wenn wieder wie beispielsweise vor zwanzig Jahren mit der "Informationskompetenz" eine neue Sau durchs Dorf getrieben wird (Christensen).
    These 2: Data Librarian, Systembibliothekar und Co.: Welche Qualifikationen brauchen wir und wie lassen sich diese rekrutieren? Über den Tellerrand schauen, in drei Welten beheimatet sein, sich selbst die gerade erforderlichen Fähigkeiten beibringen Bibliothekare sind häufig mit Managementaufgaben befasst und müssen sich immer wieder an Prozesse, Projekte, Zieldefinitionen, überhaupt an dem großen Ganzen orientieren. Aber sie verfügen lediglich über eine fachliche Ausbildung. Sollte nicht eine Managementqualifikation hinzukommen? (Albers). Dem könne er nur zustimmen, sagte Konrad Förstner. Von ähnlich zentraler Bedeutung sei zudem die Kommunikationskompetenz und die Fähigkeit, sich selbst Wissen anzueignen. Die Techniken verändern sich mittlerweile derart rapide, dass der Bibliothekar sich in einem sich bewegenden Feld der Anforderungen befindet und sich bemühen muss, die neu erforderlichen Qualifizierungen fortlaufend zu akquirieren. Das ist eine sehr schwierige Aufgabe (beispielsweise auch die, eine solche Fähigkeit vermitteln), so dass man die Leute langsam in diese Qualifikation hineinwachsen lassen sollte. Andererseits ist diese Kompetenz nicht nur in Bibliotheken, vielmehr überall gefragt und gibt es dazu keine Alternative (Förstner).
    These 3: Citizen Science: Die breite Öffentlichkeit als wichtige Zielgruppe für Wissenschaftliche Bibliotheken? Bibliotheken sollten Bürger befähigen, wissenschaftlichen Prozess zu verstehen Bei Citizen Science sind zwei Aspekte zu unterscheiden: die Bürger an der Forschung zu beteiligen (beispielsweise mit dem Sammeln von Daten), auf dass sie selbst einen Mehrwert für die Entwicklung neuer bibliothekarischer Methoden zu schaffen - die Bürger an die Wissenschaft heranzuführen und Verständnis für diese zu vermitteln. Dabei sollte die Bibliothek als Ansprechpartner für belastbares Wissen, für Evidenzbasierung und gute Empirie fungieren. Sie hat die Fragen zu beantworten: Welches Wissen ist vertrauenswürdig und unter welchen Vorussetzungen kann ich ein bestimmtes Wissen nutzen? Dies ist eine Kernaufgabe nicht jeder einzelnen wissenschaftlichen Bibliothek, aber der wissenschaftlichen Bibliotheken insgesamt (Nelle).
    These 4: Wissenschaftliche Bibliotheken und Privatwirtschaft: Notwendig, sinnvoll oder verwerflich? Keiner der Referenten sah die Zusammenarbeit zwischen Wissenschaft und Wirtschaft als verwerflich an, aber in jedem Statement wurden mögliche Gefahren und Problematiken einer solchen Zusammenarbeit betont. Wissenschaft und Gesellschaft sollten sich in einen interaktiven Austausch zum wechselseitigen Vorteil begeben und die Wirtschaft ist ein wesentlicher Teil der Gesellschaft. Allerdings kommt es auf die Setzung geeigneter Rahmenbedingungen an. Die Wissenschaft darf sich nicht in einseitige Abhängigkeiten begeben. Zudem hat die Bibliothek ihr Wissen nach vielen Seiten zur Verfügung zu stellen (Nelle). Anne Christensen, die sich erst vor fünf Monaten aus einer wissenschaftlichen Bibliothek in die Privatwirtschaft begeben hatte, machte bereits die Erfahrung, dass sie nicht mehr uneingeschränkt Teil der Bibliotheksgemeinschaft ist, schon weil sie das Privileg verloren hat, keine Umsätze machen zu müssen. Große private Anbieter wie EBSCO haben wichtigen Projekten einen großen Schub gegeben, weniger wegen ihres Know hows, sondern weil sie anders als die beteiligten wissenschaftlichen Bibliotheken über ausreichende Entwicklungsressourcen geboten. Aber die Bibliotheken müssen in jedem Fall ihre Unabhängigkeit bewahren und die Hoheit über die eigenen Daten und Dienste behalten (Christensen).
    Field
    Bibliothekswesen

Languages

  • e 794
  • d 432
  • pt 5
  • m 2
  • sp 1
  • More… Less…

Types

  • a 1089
  • el 278
  • m 64
  • p 14
  • s 10
  • x 4
  • A 1
  • EL 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications