Search (1267 results, page 1 of 64)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.23
    0.23425065 = product of:
      0.66016096 = sum of:
        0.028347794 = product of:
          0.08504338 = sum of:
            0.08504338 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.08504338 = score(doc=1000,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010066918 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010066918 = score(doc=1000,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.016375672 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.016375672 = score(doc=1000,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08504338 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08504338 = score(doc=1000,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010066918 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010066918 = score(doc=1000,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.3548387 = coord(11/31)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.22
    0.2181237 = product of:
      0.751315 = sum of:
        0.03401735 = product of:
          0.10205205 = sum of:
            0.10205205 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10205205 = score(doc=862,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0029333972 = weight(_text_:e in 862) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=862,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10205205 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10205205 = score(doc=862,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.29032257 = coord(9/31)
    
    Language
    e
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.04
    0.03745467 = product of:
      0.19351579 = sum of:
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.05738305 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.05738305 = score(doc=1047,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0034222968 = weight(_text_:e in 1047) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=1047,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.19354838 = coord(6/31)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  4. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.030520977 = product of:
      0.15769172 = sum of:
        0.028347794 = product of:
          0.08504338 = sum of:
            0.08504338 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.08504338 = score(doc=5669,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.008219604 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008219604 = score(doc=5669,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.05279214 = weight(_text_:autoren in 5669) [ClassicSimilarity], result of:
          0.05279214 = score(doc=5669,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.43882453 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.05279214 = weight(_text_:autoren in 5669) [ClassicSimilarity], result of:
          0.05279214 = score(doc=5669,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.43882453 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.007320437 = product of:
          0.014640874 = sum of:
            0.014640874 = weight(_text_:29 in 5669) [ClassicSimilarity], result of:
              0.014640874 = score(doc=5669,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19432661 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.5 = coord(1/2)
        0.008219604 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008219604 = score(doc=5669,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.19354838 = coord(6/31)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  5. Elsweiler, D.; Kruschwitz, U.: Interaktives Information Retrieval (2023) 0.03
    0.029710585 = product of:
      0.1535047 = sum of:
        0.018598842 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.018598842 = score(doc=797,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.39180204 = fieldWeight in 797, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.043437775 = weight(_text_:literatur in 797) [ClassicSimilarity], result of:
          0.043437775 = score(doc=797,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.42339188 = fieldWeight in 797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.043437775 = weight(_text_:literatur in 797) [ClassicSimilarity], result of:
          0.043437775 = score(doc=797,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.42339188 = fieldWeight in 797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.015127198 = weight(_text_:im in 797) [ClassicSimilarity], result of:
          0.015127198 = score(doc=797,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.014304262 = weight(_text_:20 in 797) [ClassicSimilarity], result of:
          0.014304262 = score(doc=797,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.24296375 = fieldWeight in 797, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
        0.018598842 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.018598842 = score(doc=797,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.39180204 = fieldWeight in 797, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=797)
      0.19354838 = coord(6/31)
    
    Abstract
    Interaktives Information Retrieval (IIR) zielt darauf ab, die komplexen Interaktionen zwischen Nutzer*innen und Systemen im IR zu verstehen. Es gibt umfangreiche Literatur zu Themen wie der formalen Modellierung des Suchverhaltens, der Simulation der Interaktion, den interaktiven Funktionen zur Unterstützung des Suchprozesses und der Evaluierung interaktiver Suchsysteme. Dabei ist die interaktive Unterstützung nicht allein auf die Suche beschränkt, sondern hat ebenso die Hilfe bei Navigation und Exploration zum Ziel.
    Date
    24.11.2022 11:42:20
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  6. Geschuhn, K.: Vertragsunterzeichnung Springer Nature und Projekt DEAL (2020) 0.03
    0.025925366 = product of:
      0.13394773 = sum of:
        0.013151366 = weight(_text_:und in 5654) [ClassicSimilarity], result of:
          0.013151366 = score(doc=5654,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 5654, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.015127198 = weight(_text_:im in 5654) [ClassicSimilarity], result of:
          0.015127198 = score(doc=5654,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 5654, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.032790314 = weight(_text_:einzelne in 5654) [ClassicSimilarity], result of:
          0.032790314 = score(doc=5654,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.26011568 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.029863741 = weight(_text_:autoren in 5654) [ClassicSimilarity], result of:
          0.029863741 = score(doc=5654,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.24823663 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.029863741 = weight(_text_:autoren in 5654) [ClassicSimilarity], result of:
          0.029863741 = score(doc=5654,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.24823663 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.013151366 = weight(_text_:und in 5654) [ClassicSimilarity], result of:
          0.013151366 = score(doc=5654,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 5654, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
      0.19354838 = coord(6/31)
    
    Abstract
    Text der Mail: "Anknüpfend an das im August 2019 unterzeichnete Memorandum of Understanding (MOU) geben Springer Nature und MPDL Services GmbH im Namen von Projekt DEAL heute bekannt, dass der formale Vertrag der bislang weltweit umfangreichsten transformativen Open-Access-Vereinbarung unterzeichnet wurde. Seit dem 1. Januar 2020 werden Publikationen in Springer Nature-Subskriptionszeitschriften aus den mehr als 700 teilnahmeberechtigten deutschen wissenschaftlichen Einrichtungen Open Access publiziert. Teilnehmende Institutionen erhalten umfassenden Zugang zum Zeitschriftenportfolio von Springer Nature. Lesen Sie die Pressemitteilung hier: https://www.hrk.de/presse/pressemitteilungen/pressemitteilung/meldung/springer-nature-und-projekt-deal-unterzeichnen-weltweit-umfangreichsten-open-access-transformationsv/ Der vollständige Vertragstext wird zusammen mit dem Start des Teilnahmeverfahrens für deutsche Einrichtungen in der zweiten Januarhälfte veröffentlicht. MPDL Services GmbH wird in den kommenden Wochen weitere Informationen zur Verfügung stellen und sich mit den teilnahmeberechtigten Institutionen in Verbindung setzen. Informationen zu den Eckpunkten der Vereinbarung finden Sie hier: https://www.projekt-deal.de/springer-nature-vertrag/ Bitte beachten Sie, dass der Start der Open-Access-Gold-Komponente auf den 1.8.2020 verschoben wurde."
    Vgl. auch den Text in der Mail von A. Jobmann an Inetbib vom 14.01.2020: "nach mehrjährigen Verhandlungen kam es im Rahmen des Allianzprojektes DEAL am 15. Januar 2019 zu einem Vertragsabschluss mit dem Verlag Wiley und am 09.01.2020 zu einem ähnlichen Vertragsabschluss mit Springer Nature. Diese Verträge berechtigen die korrespondierenden Autorinnen und Autoren aller beteiligten Einrichtungen, ihre Publikationen in den Zeitschriften des Wiley-Verlages und Springer Nature unter einer freien Lizenz im Open Access zu publizieren. Das finanzielle Beteiligungsmodell für solche Transformationsverträge setzt derzeit noch bei den bisherigen Subskriptionszahlungen an die jeweiligen Verlage an. Mit der Open-Access-Transformation wird jedoch insbesondere die Umstellung des Standard-Geschäftsmodells für issenschaftliche Verlage von Subskription auf das Open-Access-Publizieren angestrebt. Damit verbunden sind Änderungen in den Geschäftsprozessen und der Abrechnungslogik, in deren Zentrum zukünftig die einzelne Publikation steht.
  7. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.03
    0.025805967 = product of:
      0.159997 = sum of:
        0.016273987 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.016273987 = score(doc=42,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 42, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.022925941 = weight(_text_:im in 42) [ClassicSimilarity], result of:
          0.022925941 = score(doc=42,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37866634 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.052261546 = weight(_text_:autoren in 42) [ClassicSimilarity], result of:
          0.052261546 = score(doc=42,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 42, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.052261546 = weight(_text_:autoren in 42) [ClassicSimilarity], result of:
          0.052261546 = score(doc=42,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 42, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
        0.016273987 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.016273987 = score(doc=42,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34282678 = fieldWeight in 42, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=42)
      0.16129032 = coord(5/31)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
  8. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.03
    0.025512762 = product of:
      0.13181594 = sum of:
        0.03609334 = weight(_text_:sprache in 752) [ClassicSimilarity], result of:
          0.03609334 = score(doc=752,freq=4.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.32453743 = fieldWeight in 752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.020794136 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.020794136 = score(doc=752,freq=40.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.021718888 = weight(_text_:literatur in 752) [ClassicSimilarity], result of:
          0.021718888 = score(doc=752,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.021718888 = weight(_text_:literatur in 752) [ClassicSimilarity], result of:
          0.021718888 = score(doc=752,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.010696544 = weight(_text_:im in 752) [ClassicSimilarity], result of:
          0.010696544 = score(doc=752,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.17667414 = fieldWeight in 752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.020794136 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.020794136 = score(doc=752,freq=40.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.19354838 = coord(6/31)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  9. Dellmann, S.: Studie "Wirkungen von Open Access" veröffentlicht (2022) 0.02
    0.024749009 = product of:
      0.15344386 = sum of:
        0.011507446 = weight(_text_:und in 523) [ClassicSimilarity], result of:
          0.011507446 = score(doc=523,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24241515 = fieldWeight in 523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=523)
        0.05375151 = weight(_text_:literatur in 523) [ClassicSimilarity], result of:
          0.05375151 = score(doc=523,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.5239208 = fieldWeight in 523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=523)
        0.05375151 = weight(_text_:literatur in 523) [ClassicSimilarity], result of:
          0.05375151 = score(doc=523,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.5239208 = fieldWeight in 523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=523)
        0.022925941 = weight(_text_:im in 523) [ClassicSimilarity], result of:
          0.022925941 = score(doc=523,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37866634 = fieldWeight in 523, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=523)
        0.011507446 = weight(_text_:und in 523) [ClassicSimilarity], result of:
          0.011507446 = score(doc=523,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24241515 = fieldWeight in 523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=523)
      0.16129032 = coord(5/31)
    
    Content
    "Open Access bietet intuitiv viele Vorteile. Wie Umfragen zeigen, haben einige Wissenschaftler:innen dennoch Vorbehalte. Im letzten Jahrzehnt sind viele empirische Studien erschienen, welche fundierte Ergebnisse zu Hoffnungen und Befürchtungen liefern. Was bisher fehlte, war eine umfassende Übersicht zu empirischen Studienergebnissen zu den Wirkungen von Open Access. Um diese Lücke zu schließen, hat die Technische Informationsbibliothek (TIB) im Auftrag des Bundesministeriums für Bildung und Forschung (BMBF) die Studie <https://doi.org/10.34657/7666> "Wirkungen von Open Access. Literaturstudie über empirische Arbeiten 2010-2021" durchgeführt. Wie wir zeigen konnten, sind viele positive Wirkungen durch die empirische Literatur bestätigt, viele Vorbehalte durch die empirische Literatur zurückgewiesen oder nicht bestätigt. Lesen Sie die Zusammenfassung im Blogpost: https://tib.eu/studie-open-access-wirkungen - oder gleich den gesamten Bericht: https://doi.org/10.34657/7666."
  10. Beck, C.: ¬Die Qualität der Fremddatenanreicherung FRED (2021) 0.02
    0.023427252 = product of:
      0.121040806 = sum of:
        0.018452967 = weight(_text_:und in 377) [ClassicSimilarity], result of:
          0.018452967 = score(doc=377,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 377, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.03257833 = weight(_text_:literatur in 377) [ClassicSimilarity], result of:
          0.03257833 = score(doc=377,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.03257833 = weight(_text_:literatur in 377) [ClassicSimilarity], result of:
          0.03257833 = score(doc=377,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.016044816 = weight(_text_:im in 377) [ClassicSimilarity], result of:
          0.016044816 = score(doc=377,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.26501122 = fieldWeight in 377, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.0029333972 = weight(_text_:e in 377) [ClassicSimilarity], result of:
          0.0029333972 = score(doc=377,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.09528506 = fieldWeight in 377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
        0.018452967 = weight(_text_:und in 377) [ClassicSimilarity], result of:
          0.018452967 = score(doc=377,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38872904 = fieldWeight in 377, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=377)
      0.19354838 = coord(6/31)
    
    Abstract
    Das Projekt Fremddatenanreicherung (FRED) der Zentralbibliothek Zürich und der Universitätsbibliotheken Basel und Bern wurde schon verschiedentlich in Präsentationen vorgestellt und in der Literatur (Bucher et al. 2018) behandelt, wobei allerdings nur das Projekt vorgestellt und statistische Werte zur quantitativen Datenanreicherung sowie die Kooperation innerhalb des Projekts, also bei der Implementierung von FRED, dargestellt wurden. Der vorliegende Beitrag versucht weiterführend, die Qualität dieser Fremddatenanreicherung mittels einer subjektiven Beschreibung und Bewertung zu untersuchen. Zudem werden abschließend ein paar Fragen zum weiteren Einsatz von FRED in der völlig veränderten Bibliothekslandschaft der Schweiz mit der Swiss Library Service Platform (SLSP) ab 2021 aufgeworfen. Die Untersuchung erfolgt mittels einer Stichprobe aus Printbüchern für zwei sozialwissenschaftliche Fächer, stellt aber nur eine Art Beobachtung dar, deren Ergebnisse nicht repräsentativ für die Datenanreicherung durch FRED sind. Nicht behandelt wird im Folgenden die zeitweilig in Zürich, Basel und Bern erfolgte Datenanreicherung von E-Books. Auch ist die Qualität der geleisteten intellektuellen Verschlagwortung in den Verbünden, aus denen FRED schöpft, kein Thema. Es geht hier nur, aber immerhin, um die mit FRED erzielten Resultate im intellektuellen Verschlagwortungsumfeld des Frühjahres 2020.
    Series
    Bibliotheks- und Informationspraxis; 70
  11. Kempf, K.; Brantl, M.; Meiers, T.; Wolf, T.: Auf der Suche nach dem verborgenen Bild : Künstliche Intelligenz erschließt historische Bibliotheksbestände (2021) 0.02
    0.022715269 = product of:
      0.14083467 = sum of:
        0.015595603 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.015595603 = score(doc=218,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.011345398 = weight(_text_:im in 218) [ClassicSimilarity], result of:
          0.011345398 = score(doc=218,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.015171961 = weight(_text_:20 in 218) [ClassicSimilarity], result of:
          0.015171961 = score(doc=218,freq=4.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.25770196 = fieldWeight in 218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.08312612 = weight(_text_:werke in 218) [ClassicSimilarity], result of:
          0.08312612 = score(doc=218,freq=4.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.603206 = fieldWeight in 218, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.015595603 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.015595603 = score(doc=218,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
      0.16129032 = coord(5/31)
    
    Abstract
    Seit 23 Jahren werden im Münchener Digitalisierungszentrum (MDZ) die reichhaltigen und weltweit einzigartigen Sammlungen der Bayerischen Staatsbibliothek (BSB) digitalisiert und online bereitgestellt. Was 1997 als experimentelles Projekt mit Anschubfinanzierung der Deutschen Forschungsgemeinschaft begann, ist binnen weniger Jahre zu einem der wichtigsten Geschäftsgänge der Bayerischen Staatsbibliothek geworden. Durch die Zusammenarbeit mit Google wurde der digitale Bestandsaufbau seitdem Jahr 2007 stark erweitert. Die Anzahl der digitalisierten Werke stieg von einigen zehntausend auf aktuell über 2,5 Millionen. Der größte Teil des Altbestandes vor 1900 und damit rund ein Zehntel des Gesamtbestandes der Bibliothek ist inzwischen auch in digitaler Form verfügbar. Dabei handelt es sich um Werke aus zwölf Jahrhunderten. Von koptischen Papyri des 6. Jahrhunderts über mittelalterliche Handschriften, neuzeitliche Inkunabeln bis hin zu Druckwerken des späten 19. und frühen 20. Jahrhunderts ist alles dabei.
    Date
    12. 4.2021 20:19:11
    Issue
    Teil 1: Die Motivation, die Herausforderungen, Automatisierte Trennung von Texten und Bildern.
  12. Semar, W.: Informations- und Wissensmanagement (2023) 0.02
    0.02267439 = product of:
      0.117151015 = sum of:
        0.01537747 = weight(_text_:und in 817) [ClassicSimilarity], result of:
          0.01537747 = score(doc=817,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 817, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
        0.027148608 = weight(_text_:literatur in 817) [ClassicSimilarity], result of:
          0.027148608 = score(doc=817,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
        0.027148608 = weight(_text_:literatur in 817) [ClassicSimilarity], result of:
          0.027148608 = score(doc=817,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
        0.023158696 = weight(_text_:im in 817) [ClassicSimilarity], result of:
          0.023158696 = score(doc=817,freq=12.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.38251072 = fieldWeight in 817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
        0.008940164 = weight(_text_:20 in 817) [ClassicSimilarity], result of:
          0.008940164 = score(doc=817,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.15185234 = fieldWeight in 817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
        0.01537747 = weight(_text_:und in 817) [ClassicSimilarity], result of:
          0.01537747 = score(doc=817,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 817, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=817)
      0.19354838 = coord(6/31)
    
    Abstract
    In der Literatur wird Informations- und Wissensmanagement oft zusammen und in dieser Reihenfolge betitelt. In der Tat handelt es sich aber um zwei eigenständige Themenbereiche, die sich ergänzen. Ausgangspunkt muss jedoch zunächst das Wissen von Menschen sein, damit man ihnen anschließend die für sie relevante Information zukommen lassen kann. Hierdurch sind bereits die Aufgaben der beiden Bereiche festgelegt. Im Wissensmanagement geht es um das gezielte Organisieren von Wissen, das in den Köpfen der Menschen vorhanden ist. Dadurch, dass Wissen in der Zwischenzeit unbestritten eine der wichtigsten Ressourcen eines Unternehmens bzw. jeglicher Formen einer Organisation ist, steht das Managen des Wissens aller Mitarbeitenden im Vordergrund. Beim Informationsmanagement geht es um das gezielte Organisieren von Information, damit die Mitarbeitenden jederzeit über das relevante Wissen verfügen, um ihre Aufgabe erfüllen zu können. Wissen ist somit etwas Internes, im Kopf der Menschen, während Information von außen kommt, also etwas Externes ist. Die Kulturaspekte und die Fokussierung auf die Mitarbeitenden als Wissensträger stehen im Vordergrund des Wissensmanagements, während beim Informationsmanagement die Informationsversorgung und die dafür notwendige technische Infrastruktur im Vordergrund stehen. Gemäß diesem Konzept gehen wir im Folgenden zunächst auf das Wissensmanagement und anschließend auf das Informationsmanagement ein.
    Date
    24.11.2022 11:42:20
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Griesbaum, J.; Çetta, D.: What is information literacy and how to improve it? (2021) 0.02
    0.022521103 = product of:
      0.11635903 = sum of:
        0.009863526 = weight(_text_:und in 201) [ClassicSimilarity], result of:
          0.009863526 = score(doc=201,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.20778441 = fieldWeight in 201, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.03257833 = weight(_text_:literatur in 201) [ClassicSimilarity], result of:
          0.03257833 = score(doc=201,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.03257833 = weight(_text_:literatur in 201) [ClassicSimilarity], result of:
          0.03257833 = score(doc=201,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.022690795 = weight(_text_:im in 201) [ClassicSimilarity], result of:
          0.022690795 = score(doc=201,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.37478244 = fieldWeight in 201, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.008784524 = product of:
          0.017569048 = sum of:
            0.017569048 = weight(_text_:29 in 201) [ClassicSimilarity], result of:
              0.017569048 = score(doc=201,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23319192 = fieldWeight in 201, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=201)
          0.5 = coord(1/2)
        0.009863526 = weight(_text_:und in 201) [ClassicSimilarity], result of:
          0.009863526 = score(doc=201,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.20778441 = fieldWeight in 201, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
      0.19354838 = coord(6/31)
    
    Abstract
    Im Vortrag wurden zunächst Entwicklungstendenzen im Bereich der Informationskompetenz, wie sie in der Literatur diskutiert werden, thematisiert. Dabei wurden insbesondere die folgenden Aspekte angeführt: die zunehmende Breite des Konzepts "Informationskompetenz" - dessen Überlappung mit anderen Kompetenzen sowie zentrale Problemfelder wie zunehmend komplexer werdende Informationsmärkte, Herausforderung der Informationsbewertung sowie der Bestätigungsfehler. Nachfolgend wurden der Kontext und das Design der Studie vorgestellt. Im Rahmen des "Calls für Positionspapiere" wurden Experte*innen dazu aufgerufen nachfolgende Fragen zu beantworten: - Was ist Informationskompetenz? - Wie soll man Informationskompetenz vermitteln? - Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? - Welche weiteren Aspekte des Themas sind relevant?
    Date
    29. 3.2021 18:55:14
  14. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.02
    0.021184295 = product of:
      0.13134263 = sum of:
        0.025407752 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.025407752 = score(doc=1186,freq=78.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.006618149 = weight(_text_:im in 1186) [ClassicSimilarity], result of:
          0.006618149 = score(doc=1186,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.10931155 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.036954496 = weight(_text_:autoren in 1186) [ClassicSimilarity], result of:
          0.036954496 = score(doc=1186,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.30717716 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.036954496 = weight(_text_:autoren in 1186) [ClassicSimilarity], result of:
          0.036954496 = score(doc=1186,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.30717716 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.025407752 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.025407752 = score(doc=1186,freq=78.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
      0.16129032 = coord(5/31)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  15. Göbel, S.; Sperber, W.; Wegner, B.: 150 Jahre : ein Rückblick auf das Jahrbuch über die Fortschritte der Mathematik (2020) 0.02
    0.020779934 = product of:
      0.10736299 = sum of:
        0.01537747 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.01537747 = score(doc=72,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 72, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.027148608 = weight(_text_:literatur in 72) [ClassicSimilarity], result of:
          0.027148608 = score(doc=72,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 72, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.027148608 = weight(_text_:literatur in 72) [ClassicSimilarity], result of:
          0.027148608 = score(doc=72,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 72, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.01337068 = weight(_text_:im in 72) [ClassicSimilarity], result of:
          0.01337068 = score(doc=72,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 72, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.008940164 = weight(_text_:20 in 72) [ClassicSimilarity], result of:
          0.008940164 = score(doc=72,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.15185234 = fieldWeight in 72, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
        0.01537747 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.01537747 = score(doc=72,freq=14.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.32394084 = fieldWeight in 72, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=72)
      0.19354838 = coord(6/31)
    
    Abstract
    Das Jahrbuch über die Fortschritte der Mathematik (JFM) 1868-1942 ist mehr als ein historischer Zeitzeuge für die Entwicklung der Mathematik in der zweiten Hälfte des 19. und ersten Hälfte des 20. Jahrhunderts. Als integraler Bestandteil der Datenbank zbMATH bieten die Daten des JFM einen Zugang zur mathematischen Literatur ab der Mitte des 19. Jahrhunderts. Das Jahrbuch hat eine bewegte Geschichte. Es entstand aus einer privaten Initiative, geriet durch den ersten Weltkrieg in eine tiefe Krise, wurde dann von der Preußischen Akademie der Wissenschaften übernommen, die das Jahrbuch noch bis zum Ende des zweiten Weltkriegs unter sich ständig verschlechternden Rahmenbedingungen und zunehmenden politischen Restriktionen weiterbetrieben hat. Der Artikel beschreibt die Enstehungsgeschichte und die Entwicklung des JFM von 1868 bis heute und würdigt das Wirken der Mathematiker, die federführend daran beteiligt waren. Einen Schwerpunkt bildet die konzeptionelle Diskussion und die Entwicklung der Anforderungen an mathematische Literaturdokumentationsdienste, die heute, im digitalen Zeitalter, vor gänzlich neuen Herausforderungen stehen. Zusätzlich zu den Daten des JFM liegt einiges an Originaldokumenten und Sekundärliteratur in der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) vor. Aber nicht alles wurde dokumentiert und vieles ist verschollen, etwa die Daten des JFM für das Jahr 1943. Wir weisen an mehreren Stellen im Artikel darauf hin.
  16. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.02
    0.020377463 = product of:
      0.12634027 = sum of:
        0.01800825 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.01800825 = score(doc=877,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.04223371 = weight(_text_:autoren in 877) [ClassicSimilarity], result of:
          0.04223371 = score(doc=877,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.35105962 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.04223371 = weight(_text_:autoren in 877) [ClassicSimilarity], result of:
          0.04223371 = score(doc=877,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.35105962 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0058563496 = product of:
          0.011712699 = sum of:
            0.011712699 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.011712699 = score(doc=877,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.5 = coord(1/2)
        0.01800825 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.01800825 = score(doc=877,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
      0.16129032 = coord(5/31)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  17. Gruber, A.: Vom Knüpfen feministischer Begriffsnetze : Ariadnes Faden & geschlechtersensible Normdaten (2022) 0.02
    0.020264862 = product of:
      0.12564215 = sum of:
        0.018194871 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.018194871 = score(doc=577,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.038008053 = weight(_text_:literatur in 577) [ClassicSimilarity], result of:
          0.038008053 = score(doc=577,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.038008053 = weight(_text_:literatur in 577) [ClassicSimilarity], result of:
          0.038008053 = score(doc=577,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3704679 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.013236298 = weight(_text_:im in 577) [ClassicSimilarity], result of:
          0.013236298 = score(doc=577,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2186231 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.018194871 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.018194871 = score(doc=577,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
      0.16129032 = coord(5/31)
    
    Abstract
    Feministische Thesauri sind Begriffsnetze der Frauen*- und Geschlechterforschung, die in der bibliothekarischen Praxis jene Lücken schließen, die konventionelle Normdateien bei der Sacherschließung relevanter Literatur hinterlassen. Mit thesaurA wurde Mitte der 1990er Jahren der erste kooperative frauen*spezifische Fachthesaurus Österreichs erstellt. Der SAR-Index der Ariadne, der Frauen*- und Geschlechterdokumentationsstelle der Österreichischen Nationalbibliothek (ÖNB), ist eine lokale Weiterentwicklung. Ein Wechsel des Bibliothekssystems an der ÖNB macht eine Migration des Vokabulars erforderlich. Der Beitrag beleuchtet das Migrationsprojekt im Kontext feministischer Beschlagwortung und entwickelt Überlegungen zu kooperativen Thesaurus-Projekten weiter, die unabhängig der fachlichen Ausrichtung Relevanz entfalten können.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.1, S.262-288
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.02
    0.020033235 = product of:
      0.12420606 = sum of:
        0.024160603 = weight(_text_:und in 248) [ClassicSimilarity], result of:
          0.024160603 = score(doc=248,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.5089658 = fieldWeight in 248, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.03257833 = weight(_text_:literatur in 248) [ClassicSimilarity], result of:
          0.03257833 = score(doc=248,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.03257833 = weight(_text_:literatur in 248) [ClassicSimilarity], result of:
          0.03257833 = score(doc=248,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.31754392 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.010728197 = weight(_text_:20 in 248) [ClassicSimilarity], result of:
          0.010728197 = score(doc=248,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.024160603 = weight(_text_:und in 248) [ClassicSimilarity], result of:
          0.024160603 = score(doc=248,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.5089658 = fieldWeight in 248, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
      0.16129032 = coord(5/31)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
    Editor
    Deutsche Forschungsgemeinschaft / Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme
    Issue
    [20. Mai 2021].
  19. Schmitt, P.: Postdigital : Medienkritik im 21. Jahrhundert (2021) 0.02
    0.019223832 = product of:
      0.11918776 = sum of:
        0.031902306 = weight(_text_:sprache in 146) [ClassicSimilarity], result of:
          0.031902306 = score(doc=146,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.012996335 = weight(_text_:und in 146) [ClassicSimilarity], result of:
          0.012996335 = score(doc=146,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27378 = fieldWeight in 146, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.01337068 = weight(_text_:im in 146) [ClassicSimilarity], result of:
          0.01337068 = score(doc=146,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 146, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.04792211 = weight(_text_:jahrhundert in 146) [ClassicSimilarity], result of:
          0.04792211 = score(doc=146,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.35157397 = fieldWeight in 146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.012996335 = weight(_text_:und in 146) [ClassicSimilarity], result of:
          0.012996335 = score(doc=146,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27378 = fieldWeight in 146, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
      0.16129032 = coord(5/31)
    
    Abstract
    Die völlige Computerisierung der Lebenswelt entwickelt eine geradezu mahlstromartige Dynamik. Massenhaft sind die Köpfe über die Bildschirme gesenkt und starren auf vereinheitlichten Geräten auf die überall gleichen Apps. Von informationeller Autonomie kann keine Rede sein, dafür umso mehr von der »Fear of missing out«. Peter Schmitt analysiert in seinem fulminanten Essay diese neue Normalität. Die Gewalt dieses Umbruchs, der seit wenig mehr als zehn Jahren stattfindet, ist philosophisch noch kaum begriffen. Die Digitalisierung zerrt uns mit wachsender Dynamik in eine Existenzweise hinein, für oder gegen die wir uns nicht entscheiden können. Sprache unterliegt dem Siegeszug der binären Codierung, Musik, verfügbar wie Wasser und Gas, verliert real an Kontur und Substanz. Individualität als grundlegendes Selbstverhältnis des Menschen diffundiert im Netz und Freiheit ist in der digital verwalteten Welt bedrohter denn je. Was bedeutet es, wenn der Mensch zum permanent überwachten Programmanwender wird? Schmitt geht es weder um eine Verteufelung der uns umgebenden Technik noch um eine ängstliche Schutzhaltung. Sein Buch zielt auf ein angemessenes Verständnis des Digitalen und ein damit zusammenhängendes neues, »post­digitales« Selbstverständnis der Anwender. Der Autor plädiert für eine zeitgemäße Medienkritik, die den Blick für die Unwahrscheinlichkeit der Situation schärft, in die unsere Gesellschaft sich hineinmanövriert hat.
  20. Maas, J.F.: Inhaltserschließung für Discovery-Systeme gestalten (2021) 0.02
    0.018924436 = product of:
      0.14666438 = sum of:
        0.026096433 = weight(_text_:und in 375) [ClassicSimilarity], result of:
          0.026096433 = score(doc=375,freq=28.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.54974586 = fieldWeight in 375, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
        0.011345398 = weight(_text_:im in 375) [ClassicSimilarity], result of:
          0.011345398 = score(doc=375,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
        0.08312612 = weight(_text_:werke in 375) [ClassicSimilarity], result of:
          0.08312612 = score(doc=375,freq=4.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.603206 = fieldWeight in 375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
        0.026096433 = weight(_text_:und in 375) [ClassicSimilarity], result of:
          0.026096433 = score(doc=375,freq=28.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.54974586 = fieldWeight in 375, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
      0.12903225 = coord(4/31)
    
    Abstract
    Bibliotheken und Informationseinrichtungen erfahren in den letzten Jahren einen Wandel in ihren Aufgaben. Die zunehmende digitale Vernetzung ermöglicht es den Agierenden des Publikations- und Informationswesens, verstärkt die eigene Rolle zu verlassen und in Bereichen tätig zu werden, die bisher nicht dem eigenen Kerngebiet entsprochen haben. So können z. B. Verlage und Autor: innen in Umgehung des Einzelhandels und der Bibliotheken ihre Werke direkt an die Kund:innen verkaufen und ausliefern und Bibliotheken können über Open-Access-Repositorien selbst Werke publizieren. Ich möchte in diesem Beitrag dafür argumentieren, Tätigkeiten in Bibliotheken und Informationseinrichtungen - speziell Erschließung und das Entwickeln von Discovery-Systemen - konsequent in Bezug auf Anwendungsfälle zu denken und zu gestalten. Nur so lässt sich effektiv und effizient sowohl bei der Erschließung als auch bei der Gestaltung der die Erschließung nutzenden Systeme und Prozesse arbeiten. Zunächst möchte ich dafür in den folgenden Abschnitten Berührungspunkte aufzeigen, um auf die vielfältigen Probleme aber auch Möglichkeiten im Zusammenspiel von (Inhalts-)Erschließung und Discovery-Systemen hinzuweisen.
    Series
    Bibliotheks- und Informationspraxis; 70

Languages

  • e 825
  • d 433
  • pt 6
  • m 2
  • More… Less…

Types

  • a 1112
  • el 286
  • m 63
  • p 14
  • s 10
  • x 4
  • A 1
  • EL 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications