Search (683 results, page 1 of 35)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.13
    0.13408074 = product of:
      0.49975544 = sum of:
        0.02166692 = product of:
          0.06500076 = sum of:
            0.06500076 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.06500076 = score(doc=1000,freq=2.0), product of:
                0.1387872 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0076943943 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.0076943943 = score(doc=1000,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0076943943 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.0076943943 = score(doc=1000,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0076943943 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.0076943943 = score(doc=1000,freq=6.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06500076 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06500076 = score(doc=1000,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.2682927 = coord(11/41)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.11
    0.111611046 = product of:
      0.57200664 = sum of:
        0.026000304 = product of:
          0.07800091 = sum of:
            0.07800091 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.07800091 = score(doc=862,freq=2.0), product of:
                0.1387872 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016370254 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07800091 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07800091 = score(doc=862,freq=2.0), product of:
            0.1387872 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016370254 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.19512194 = coord(8/41)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.02
    0.024700852 = product of:
      0.16878916 = sum of:
        0.06174826 = weight(_text_:medizin in 1203) [ClassicSimilarity], result of:
          0.06174826 = score(doc=1203,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.70717645 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.06174826 = weight(_text_:medizin in 1203) [ClassicSimilarity], result of:
          0.06174826 = score(doc=1203,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.70717645 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010661665 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010661665 = score(doc=1203,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010661665 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010661665 = score(doc=1203,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010661665 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010661665 = score(doc=1203,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.01330766 = product of:
          0.02661532 = sum of:
            0.02661532 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.02661532 = score(doc=1203,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    Hirntumoren können synaptische Verbindungen mit Nervenzellen knüpfen und wachsen auf Kosten der kognitiven Fähigkeiten weiter heran. Das hat fatale Folgen.
    Field
    Medizin
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24
  4. Zweig, K.; Luttenberger, J.: KI ist keine Magie (2020) 0.02
    0.019851822 = product of:
      0.13565412 = sum of:
        0.0100519145 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=5503,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.0100519145 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=5503,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.028560106 = sum of:
          0.0106554935 = weight(_text_:4 in 5503) [ClassicSimilarity], result of:
            0.0106554935 = score(doc=5503,freq=2.0), product of:
              0.04442393 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016370254 = queryNorm
              0.23985931 = fieldWeight in 5503, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=5503)
          0.017904611 = weight(_text_:29 in 5503) [ClassicSimilarity], result of:
            0.017904611 = score(doc=5503,freq=2.0), product of:
              0.057585433 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016370254 = queryNorm
              0.31092256 = fieldWeight in 5503, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=5503)
        0.0100519145 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=5503,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.025646092 = product of:
          0.051292185 = sum of:
            0.051292185 = weight(_text_:insgesamt in 5503) [ClassicSimilarity], result of:
              0.051292185 = score(doc=5503,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.526254 = fieldWeight in 5503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5503)
          0.5 = coord(1/2)
        0.051292185 = weight(_text_:insgesamt in 5503) [ClassicSimilarity], result of:
          0.051292185 = score(doc=5503,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.526254 = fieldWeight in 5503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
      0.14634146 = coord(6/41)
    
    Abstract
    Das Thema "Künstliche Intelligenz" (KI) wird immer wichtiger. Die Kaiserslauterer Informatikprofessorin Katharina Zweig ist Kl-Expertinund Autorin des Erklärbuchs "Ein Algorithmus hat kein Taktgefühl". Im großen RHEINPFALZ-Gespräch erläutert sie, wie Kl und Datenschutz zusammengehen können - durch dezentrales Lernen. Die Daten bleiben dadurch beim Nutzer. "KI wird insgesamt näher an uns heranrücken, darum müssen wir Betriebsräte, Schulelternbeiräte, Betroffene und Bürger befähigen, sich einmischen zu können",
    Date
    6. 1.2020 16:29:35
    Source
    ¬Die Rheinpfalz. Nr.4 vom 06.01.2020, S
  5. Blümig, G.; Klein, D.; Wolf, S.: ¬Das Framework und die Erstsemesterstudierenden der Medizin : ein Erfahrungsbericht aus der Universitätsbibliothek Würzburg (2021) 0.02
    0.019767337 = product of:
      0.16209215 = sum of:
        0.062388163 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.062388163 = score(doc=301,freq=6.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.062388163 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.062388163 = score(doc=301,freq=6.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012438609 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012438609 = score(doc=301,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012438609 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012438609 = score(doc=301,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012438609 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012438609 = score(doc=301,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
      0.12195122 = coord(5/41)
    
    Abstract
    Dieser Artikel schildert die Neukonzeption eines Kurses für Erstsemesterstudierende der Medizin an der Universitätsbibliothek Würzburg unter Einbeziehung des Frameworks for Information Literacy for Higher Education (im Folgenden Framework genannt). Nach einleitenden Bemerkungen zur Theorie der Schwellenkonzepte und zum Framework selbst steht der Kursinhalt mit den dazugehörigen Frames, Knowledge Practices und Dispositions im Fokus. Die Auswertung der Evaluation und ein Ausblick auf die Umsetzung des Kurses in der coronabedingten digitalen Lehre bilden den Schluss.
    Field
    Medizin
  6. Dirnagl, U.: Kulturwandel in der Biomedizin (2020) 0.02
    0.015800968 = product of:
      0.12956794 = sum of:
        0.051456887 = weight(_text_:medizin in 3226) [ClassicSimilarity], result of:
          0.051456887 = score(doc=3226,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.58931375 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.051456887 = weight(_text_:medizin in 3226) [ClassicSimilarity], result of:
          0.051456887 = score(doc=3226,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.58931375 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008884721 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3226,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008884721 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3226,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008884721 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008884721 = score(doc=3226,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
      0.12195122 = coord(5/41)
    
    Abstract
    Biomedizinische Studien haben sich oft als methodisch unzuverlässig herausgestellt, was ihre Ergebnisse in Zweifel zieht. Viele Wissenschaftler sehen das Fach deshalb in einer Krise. Ein Umdenken ist nötig - und hat bereits eingesetzt.
    Field
    Medizin
  7. Schleim, S.; Amunts, K.: Deutsche Forscher veröffentlichen ersten 3D-Atlas des menschlichen Gehirns (2020) 0.02
    0.015332918 = product of:
      0.15716241 = sum of:
        0.008884721 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008884721 = score(doc=56,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008884721 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008884721 = score(doc=56,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.13050824 = weight(_text_:3d in 56) [ClassicSimilarity], result of:
          0.13050824 = score(doc=56,freq=4.0), product of:
            0.11693289 = queryWeight, product of:
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.016370254 = queryNorm
            1.1160953 = fieldWeight in 56, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008884721 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008884721 = score(doc=56,freq=2.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
      0.09756097 = coord(4/41)
    
    Abstract
    Ein Gespräch mit der Spitzenforscherin Katrin Amunts über Erkenntnisfortschritte, Herausforderungen der KI und ein gesundes Gehirn.
    Source
    https://www.heise.de/tp/features/Deutsche-Forscher-veroeffentlichen-ersten-3D-Atlas-des-menschlichen-Gehirns-4992198.html?seite=all
  8. Widmann, V.: ¬Die Sache mit der Menschenwürde und dem Wert des Lebens (2020) 0.02
    0.01524118 = product of:
      0.12497767 = sum of:
        0.04116551 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04116551 = score(doc=5377,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.04116551 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04116551 = score(doc=5377,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014215554 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014215554 = score(doc=5377,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014215554 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014215554 = score(doc=5377,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014215554 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014215554 = score(doc=5377,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
      0.12195122 = coord(5/41)
    
    Abstract
    Die Diskussion um Menschenwürde und Lebensschutz prosperiert in der Corona-Krise. Die Feuilletons renommierter Zeitschriften sind der Austragungsort, Koryphäen aus Juristerei, Philosophie und Politik die Protagonisten der Debatte.
    Field
    Medizin
    Source
    https://www.heise.de/tp/features/Die-Sache-mit-der-Menschenwuerde-und-dem-Wert-des-Lebens-4720866.html?seite=all
  9. Petersohn, S.: Neue Version 1.3. des KDSF-Standard für Forschungsinformationen veröffentlicht (2022) 0.01
    0.014023251 = product of:
      0.09582555 = sum of:
        0.014047978 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.014047978 = score(doc=4219,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.014047978 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.014047978 = score(doc=4219,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.005595191 = product of:
          0.011190382 = sum of:
            0.011190382 = weight(_text_:29 in 4219) [ClassicSimilarity], result of:
              0.011190382 = score(doc=4219,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.19432661 = fieldWeight in 4219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4219)
          0.5 = coord(1/2)
        0.014047978 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.014047978 = score(doc=4219,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.016028808 = product of:
          0.032057617 = sum of:
            0.032057617 = weight(_text_:insgesamt in 4219) [ClassicSimilarity], result of:
              0.032057617 = score(doc=4219,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.32890874 = fieldWeight in 4219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4219)
          0.5 = coord(1/2)
        0.032057617 = weight(_text_:insgesamt in 4219) [ClassicSimilarity], result of:
          0.032057617 = score(doc=4219,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.32890874 = fieldWeight in 4219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
      0.14634146 = coord(6/41)
    
    Content
    "es gab viel Bewegung rund um den KDSF - Standard für Forschungsinformationen (Kerndatensatz Forschung) im Jahr 2022. Die Kommission für Forschungsinformationen in Deutschland (KFiD), ein aus 17 ehrenamtlichen Mitgliedern bestehendes Gremium zur Förderung des KDSF und Professionalisierung des Forschungsinformationswesens, hat eine Weiterentwicklung des KDSF zur Version 1.3 beschlossen und sich intensiv mit ihrem Arbeitsprogramm für die erste Amtsperiode befasst. In diesem Zuge wurden drei neue Arbeitsgruppen ins Leben gerufen: Die AG Weiterentwicklung des KDSF, die AG Datenabfragen im KDSF-Format und die AG Forschungsinformationsmanagement. Diese befassen sich mit der Aktualisierung und Ergänzung des KDSF sowie der Erstellung von mittel- und langfristigen Weiterentwicklungsplänen, der Stärkung von Datenabfragen im KDSF-Format sowie dem Abgleich von Informationsbedürfnissen mit der potentiellen Anwendbarkeit des KDSF in Berichtslegungsprozessen. Schließlich sollen die Mehrwerte des KDSF in beispielhaften, einrichtungs- und systemspezifischen Implementierungsvorhaben demonstriert werden. Ein erstes Ergebnis der AG Weiterentwicklung ist die bereits von Praktiker:innen und Anwender:innen lange erwartete Integration der Forschungsfeldklassifikation in den Kern des KDSF. Dadurch können Hochschulen und Forschungseinrichtungen zukünftig nicht nur ihre Forschungsaktivitäten entlang von Forschungsdisziplinen ausweisen, sondern auch interdisziplinäre bzw. gegenstands- und problembezogene Forschung abbilden. Dazu gehören zum Beispiel Forschung zu Nachhaltigkeit oder zur Digitalen Wirtschaft. Hierfür stehen nun insgesamt 72 Forschungsfelder zur Verfügung. Die Version 1.3 ist auf dem gewohnten Webauftritt des KDSF und das zugehörige Datenmodell nun auch auf Github zu finden. Spezifikation: https://www.kerndatensatz-forschung.de/index.php?id=spezifikation bzw. https://www.kerndatensatz-forschung.de/version1/Spezifikation_KDSF_v1_3.pdf Datenmodell: https://github.com/KFiD-G/KDSF Informationen zur KFiD finden Sie auf einem neuen Webauftritt unter www.kfid-online.de.
    Date
    16.12.2022 9:46:29
  10. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.01
    0.013726062 = product of:
      0.09379476 = sum of:
        0.019946149 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.019946149 = score(doc=406,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.014980254 = product of:
          0.029960508 = sum of:
            0.029960508 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.029960508 = score(doc=406,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.019946149 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.019946149 = score(doc=406,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.0039958097 = product of:
          0.007991619 = sum of:
            0.007991619 = weight(_text_:4 in 406) [ClassicSimilarity], result of:
              0.007991619 = score(doc=406,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.17989448 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.019946149 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.019946149 = score(doc=406,freq=28.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.014980254 = product of:
          0.029960508 = sum of:
            0.029960508 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.029960508 = score(doc=406,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  11. Illing, S.: Automatisiertes klinisches Codieren (2021) 0.01
    0.013717897 = product of:
      0.11248676 = sum of:
        0.04116551 = weight(_text_:medizin in 419) [ClassicSimilarity], result of:
          0.04116551 = score(doc=419,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.47145098 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.04116551 = weight(_text_:medizin in 419) [ClassicSimilarity], result of:
          0.04116551 = score(doc=419,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.47145098 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.0100519145 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=419,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.0100519145 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=419,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.0100519145 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.0100519145 = score(doc=419,freq=4.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
      0.12195122 = coord(5/41)
    
    Abstract
    Die in diesem Artikel vorgestellte Bachelorarbeit behandelt die Ergebnisse einer Shared Task im Bereich eHealth. Es wird untersucht, ob die Klassifikationsgenauigkeit ausgewählter klinischer Codiersysteme durch den Einsatz von Ensemble-Methoden verbessert werden kann. Entscheidend dafür sind die Werte der Evaluationsmaße Mean Average Precision und F1-Maß.
    Field
    Medizin
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.5/6, S.285-290
  12. Christensen, A.; Finck, M.: Discovery-Systeme : eine Analyse ihrer Geschichte und Gegenwart mit dem Hype-Zyklus (2021) 0.01
    0.013397021 = product of:
      0.09154631 = sum of:
        0.014215554 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014215554 = score(doc=552,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.019973671 = product of:
          0.039947342 = sum of:
            0.039947342 = weight(_text_:allgemein in 552) [ClassicSimilarity], result of:
              0.039947342 = score(doc=552,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46442303 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.014215554 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014215554 = score(doc=552,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.008952306 = product of:
          0.017904611 = sum of:
            0.017904611 = weight(_text_:29 in 552) [ClassicSimilarity], result of:
              0.017904611 = score(doc=552,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.31092256 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.014215554 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014215554 = score(doc=552,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.019973671 = product of:
          0.039947342 = sum of:
            0.039947342 = weight(_text_:allgemein in 552) [ClassicSimilarity], result of:
              0.039947342 = score(doc=552,freq=2.0), product of:
                0.08601499 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46442303 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
      0.14634146 = coord(6/41)
    
    Abstract
    Der Beitrag analysiert die Entstehungsgeschichte von bibliothekarischen Discovery-Systemen in Wissenschaftlichen Bibliotheken, mit einem Fokus auf Bibliotheken in Deutschland. Hierfür dient der Hype-Zyklus als Rahmen, um vor allem auch auf die Erwartungen und Rezeption der Systeme in bibliothekarischen Kreisen einzugehen und diese zu diskutieren. Der Beitrag liefert außerdem einen Ausblick auf künftige Potenziale von Discovery-Systemen, auch im Kontext von forschungsnahen Dienstleistungen.
    Date
    6.12.2021 17:20:29
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.3, S.497-508
    Theme
    Katalogfragen allgemein
  13. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.01
    0.013391678 = product of:
      0.091509804 = sum of:
        0.020582754 = weight(_text_:medizin in 752) [ClassicSimilarity], result of:
          0.020582754 = score(doc=752,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.23572549 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.020582754 = weight(_text_:medizin in 752) [ClassicSimilarity], result of:
          0.020582754 = score(doc=752,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.23572549 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.015893472 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.015893472 = score(doc=752,freq=40.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.015893472 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.015893472 = score(doc=752,freq=40.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.0026638734 = product of:
          0.0053277467 = sum of:
            0.0053277467 = weight(_text_:4 in 752) [ClassicSimilarity], result of:
              0.0053277467 = score(doc=752,freq=2.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.11992966 = fieldWeight in 752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
        0.015893472 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.015893472 = score(doc=752,freq=40.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.14634146 = coord(6/41)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  14. Mausfeld, R.: Hybris und Nemesis : wie uns die Entzivilisierung von Macht in den Abgrund führt - Einsichten aus 5000 Jahren (2023) 0.01
    0.013297727 = product of:
      0.10904136 = sum of:
        0.013906789 = weight(_text_:und in 1180) [ClassicSimilarity], result of:
          0.013906789 = score(doc=1180,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 1180, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1180)
        0.013906789 = weight(_text_:und in 1180) [ClassicSimilarity], result of:
          0.013906789 = score(doc=1180,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 1180, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1180)
        0.013906789 = weight(_text_:und in 1180) [ClassicSimilarity], result of:
          0.013906789 = score(doc=1180,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.38329202 = fieldWeight in 1180, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1180)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 1180) [ClassicSimilarity], result of:
              0.044880662 = score(doc=1180,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 1180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1180)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 1180) [ClassicSimilarity], result of:
          0.044880662 = score(doc=1180,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 1180, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1180)
      0.12195122 = coord(5/41)
    
    Abstract
    Recht der Gleichen statt Recht der Stärkeren - Macht drängt nach mehr Macht und Reichtum nach mehr Reichtum, eine Dynamik, die den Zusammenhalt einer Gesellschaft gefährdet und sie zu zerstören droht: Dies ist eine der frühesten Einsichten der Zivilisationsgeschichte. Macht bedarf daher stets einer robusten Einhegung. Das bedeutendste Schutzinstrument für eine Zivilisierung von Macht stellt die egalitäre Leitidee der Demokratie dar. Rainer Mausfeld zeigt entlang historischer Linien auf, dass der Begriff der Demokratie seiner ursprünglichen Bedeutung beraubt worden ist und heute als Demokratierhetorik für Herrschaftszwecke missbraucht wird. Dadurch ist es in den vergangenen Jahrzehnten zu einer Entzivilisierung von Macht gekommen, deren psychische, gesellschaftliche und ökologische Auswirkungen die menschliche Zivilisation insgesamt bedrohen.
  15. Ockenfeld, M.: Informationswissenschaft - Bandbreite und Ausrichtungen in der DACH-Region (2020) 0.01
    0.013204442 = product of:
      0.10827643 = sum of:
        0.016857574 = weight(_text_:und in 5833) [ClassicSimilarity], result of:
          0.016857574 = score(doc=5833,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.46462005 = fieldWeight in 5833, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5833)
        0.016857574 = weight(_text_:und in 5833) [ClassicSimilarity], result of:
          0.016857574 = score(doc=5833,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.46462005 = fieldWeight in 5833, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5833)
        0.016857574 = weight(_text_:und in 5833) [ClassicSimilarity], result of:
          0.016857574 = score(doc=5833,freq=20.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.46462005 = fieldWeight in 5833, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5833)
        0.01923457 = product of:
          0.03846914 = sum of:
            0.03846914 = weight(_text_:insgesamt in 5833) [ClassicSimilarity], result of:
              0.03846914 = score(doc=5833,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.3946905 = fieldWeight in 5833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5833)
          0.5 = coord(1/2)
        0.03846914 = weight(_text_:insgesamt in 5833) [ClassicSimilarity], result of:
          0.03846914 = score(doc=5833,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.3946905 = fieldWeight in 5833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.046875 = fieldNorm(doc=5833)
      0.12195122 = coord(5/41)
    
    Abstract
    Auf Initiative von Vivian Petras (Humboldt-Universität zu Berlin) als Gastgeberin und Dirk Lewandowski (Hochschule für Angewandte Wissenschaften Hamburg) veranstaltete der Hochschulverband Informationswissenschaft am 3. Februar 2020 einen Workshop in den Räumen des Instituts für Bibliotheks- und Informationswissenschaft (IBI) in Berlin. Anliegen dieses und gleichartiger künftig geplanter Treffen ist es, Standorte informationswissenschaftlicher Forschung und Lehre zu vernetzen und sich besser kennen zu lernen. Angesichts zahlreicher Emeritierungen und Neuberufungen an den Hochschulen sowie dem Generationenwechsel in außeruniversitären Einrichtungen der Forschungsinfrastruktur ist dies, wie die Beteiligung von etwa 60 Personen bewies, eine von vielen begrüßte Initiative. Der Hochschulverband Informationswissenschaft (HI) versteht sich nicht - wie der Name suggerieren könnte - als Professorenbund, erklärte Lewandowski bei der Einführung, sondern als Zusammenschluss aller, die in Wissenschaft und Forschung in der Informationswissenschaft tätig sind. Zu diesem ersten Workshop waren insgesamt sieben Vorträge - aus der KIBA, zwei Universitäten, zwei Hochschulen sowie zwei außeruniversitären Einrichtungen - eingeladen.
    Footnote
    Bericht über einen Workshop des Hochschulverbandes Informationswissenschaft am 3. Februar 2020 in den Räumen des Instituts für Bibliotheks- und Informationswissenschaft (IBI) in Berlin.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.133-138
  16. Uhlemann, S.; Hammer, A.: Retrokonversion von 1,2 Millionen Zettelkarten in 1,5 Jahren (2021) 0.01
    0.012760588 = product of:
      0.10463682 = sum of:
        0.012438609 = weight(_text_:und in 302) [ClassicSimilarity], result of:
          0.012438609 = score(doc=302,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
        0.012438609 = weight(_text_:und in 302) [ClassicSimilarity], result of:
          0.012438609 = score(doc=302,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
        0.012438609 = weight(_text_:und in 302) [ClassicSimilarity], result of:
          0.012438609 = score(doc=302,freq=8.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.34282678 = fieldWeight in 302, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
        0.022440331 = product of:
          0.044880662 = sum of:
            0.044880662 = weight(_text_:insgesamt in 302) [ClassicSimilarity], result of:
              0.044880662 = score(doc=302,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.46047226 = fieldWeight in 302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=302)
          0.5 = coord(1/2)
        0.044880662 = weight(_text_:insgesamt in 302) [ClassicSimilarity], result of:
          0.044880662 = score(doc=302,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.46047226 = fieldWeight in 302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0546875 = fieldNorm(doc=302)
      0.12195122 = coord(5/41)
    
    Abstract
    Die Universitäts- und Landesbibliothek Darmstadt (ULB) ließ 2019 und 2020 ihre alten Zettelkataloge durch zwei externe Dienstleister retrokonvertieren. Im Zeitraum von 1,5 Jahren wurden insgesamt rund 1,2 Millionen Zettelkarten bearbeitet. Die zuvor über einen digitalisierten Imagekatalog nur begrenzt recherchierbaren Titel sind nun in den Online-Katalog der ULB integriert und auch über das Suchportal TUfind recherchierbar. Die folgenden Ausführungen berichten über die Ausgangssituation, den Verlauf und das Ergebnis der beiden Retrokonversionsprojekte. Außerdem gibt der Artikel einen Einblick in die Zusammenarbeit mit den beauftragten Unternehmen.
  17. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.01
    0.0126583055 = product of:
      0.086498424 = sum of:
        0.010881517 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
          0.010881517 = score(doc=1006,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29991096 = fieldWeight in 1006, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.010881517 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
          0.010881517 = score(doc=1006,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29991096 = fieldWeight in 1006, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.005767456 = product of:
          0.011534912 = sum of:
            0.011534912 = weight(_text_:4 in 1006) [ClassicSimilarity], result of:
              0.011534912 = score(doc=1006,freq=6.0), product of:
                0.04442393 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016370254 = queryNorm
                0.25965536 = fieldWeight in 1006, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1006)
          0.5 = coord(1/2)
        0.010881517 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
          0.010881517 = score(doc=1006,freq=12.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.29991096 = fieldWeight in 1006, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.016028808 = product of:
          0.032057617 = sum of:
            0.032057617 = weight(_text_:insgesamt in 1006) [ClassicSimilarity], result of:
              0.032057617 = score(doc=1006,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.32890874 = fieldWeight in 1006, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1006)
          0.5 = coord(1/2)
        0.032057617 = weight(_text_:insgesamt in 1006) [ClassicSimilarity], result of:
          0.032057617 = score(doc=1006,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.32890874 = fieldWeight in 1006, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
      0.14634146 = coord(6/41)
    
    Abstract
    KI-basierte Tools wie ChatGPT bzw. GPT-4 verändern derzeit die Hochschullandschaft und vielerorts wird bereits über die Konsequenzen für die zukünftigen Lehr- und Prüfungsformen diskutiert. Um hier eine empirische Grundlage zu schaffen, ist eine deutschlandweite Befragung von Studierenden durchgeführt worden, in welcher das Nutzungsverhalten im Umgang mit KI-basierten Tools im Rahmen des Studiums und Alltags erfasst wurde. Hierbei wurden unter anderem diverse Funktionen der KI-basierten Tools identifiziert, die für die Studierenden als besonders wichtig eingeschätzt wurden. Das Ziel der quantitativen Befragung lag somit in der Erfassung davon, wie KI-Tools genutzt werden und welche Faktoren für die Nutzung maßgeblich sind. Insgesamt haben sich deutschlandweit über 6300 Studierende an der anonymen Befragung beteiligt. Die Ergebnisse dieser quantitativen Analyse verdeutlichen, dass fast zwei Drittel der befragten Studierenden KI-basierte Tools im Rahmen des Studiums nutzen bzw. genutzt haben. Explizit nennen in diesem Kontext fast die Hälfte der befragten Studierenden ChatGPT bzw. GPT-4 als genutztes Tool. Am häufigsten nutzen Studierende der Ingenieurwissenschaften sowie Mathematik und Naturwissenschaften KI-basierte Tools. Eine differenzierte Betrachtung des Nutzungsverhaltens verdeutlicht, dass die Studierenden KI-basierte Tools vielfältig einsetzen. Die Klärung von Verständnisfragen und Erläuterung fachspezifischer Konzepte zählen in diesem Kontext zu den relevantesten Nutzungsgründen.
    Object
    GPT-4
  18. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.01
    0.012329097 = product of:
      0.10109859 = sum of:
        0.015077872 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015077872 = score(doc=266,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.04921114 = weight(_text_:einzelner in 266) [ClassicSimilarity], result of:
          0.04921114 = score(doc=266,freq=2.0), product of:
            0.110237986 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016370254 = queryNorm
            0.44640818 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015077872 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015077872 = score(doc=266,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015077872 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015077872 = score(doc=266,freq=16.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.00665383 = product of:
          0.01330766 = sum of:
            0.01330766 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.01330766 = score(doc=266,freq=2.0), product of:
                0.05732584 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.12195122 = coord(5/41)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  19. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.01
    0.011891289 = product of:
      0.097508565 = sum of:
        0.03087413 = weight(_text_:medizin in 820) [ClassicSimilarity], result of:
          0.03087413 = score(doc=820,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.35358822 = fieldWeight in 820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.03087413 = weight(_text_:medizin in 820) [ClassicSimilarity], result of:
          0.03087413 = score(doc=820,freq=2.0), product of:
            0.087316625 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016370254 = queryNorm
            0.35358822 = fieldWeight in 820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.011920105 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.011920105 = score(doc=820,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.011920105 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.011920105 = score(doc=820,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.011920105 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.011920105 = score(doc=820,freq=10.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
      0.12195122 = coord(5/41)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.01
    0.011755284 = product of:
      0.08032778 = sum of:
        0.014250217 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.014250217 = score(doc=115,freq=42.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.014250217 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.014250217 = score(doc=115,freq=42.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0039166333 = product of:
          0.007833267 = sum of:
            0.007833267 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.007833267 = score(doc=115,freq=2.0), product of:
                0.057585433 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016370254 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.014250217 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.014250217 = score(doc=115,freq=42.0), product of:
            0.03628249 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016370254 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0112201655 = product of:
          0.022440331 = sum of:
            0.022440331 = weight(_text_:insgesamt in 115) [ClassicSimilarity], result of:
              0.022440331 = score(doc=115,freq=2.0), product of:
                0.097466595 = queryWeight, product of:
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.016370254 = queryNorm
                0.23023613 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.953884 = idf(docFreq=311, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.022440331 = weight(_text_:insgesamt in 115) [ClassicSimilarity], result of:
          0.022440331 = score(doc=115,freq=2.0), product of:
            0.097466595 = queryWeight, product of:
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.016370254 = queryNorm
            0.23023613 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.953884 = idf(docFreq=311, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.14634146 = coord(6/41)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49

Languages

  • d 419
  • e 257
  • pt 3
  • m 2
  • More… Less…

Types

  • a 556
  • el 223
  • m 55
  • s 7
  • p 5
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications