Search (677 results, page 1 of 34)

  • × year_i:[2020 TO 2030}
  1. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.19
    0.19208024 = product of:
      0.6860009 = sum of:
        0.03610531 = product of:
          0.10831592 = sum of:
            0.10831592 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10831592 = score(doc=862,freq=2.0), product of:
                0.19272678 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022732547 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10831592 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10831592 = score(doc=862,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.28 = coord(7/25)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.19
    0.18987964 = product of:
      0.5933739 = sum of:
        0.03008776 = product of:
          0.09026328 = sum of:
            0.09026328 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.09026328 = score(doc=1000,freq=2.0), product of:
                0.19272678 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022732547 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.02170648 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.02170648 = score(doc=1000,freq=24.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.09026328 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.09026328 = score(doc=1000,freq=2.0), product of:
            0.19272678 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022732547 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.32 = coord(8/25)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Springer, M.: Schwarzer Schwan im Internet (2020) 0.06
    0.05766231 = product of:
      0.28831154 = sum of:
        0.07846859 = weight(_text_:informatik in 5903) [ClassicSimilarity], result of:
          0.07846859 = score(doc=5903,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.6764988 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.09375 = fieldNorm(doc=5903)
        0.0150386905 = weight(_text_:der in 5903) [ClassicSimilarity], result of:
          0.0150386905 = score(doc=5903,freq=2.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.29615843 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5903)
        0.091186315 = weight(_text_:programme in 5903) [ClassicSimilarity], result of:
          0.091186315 = score(doc=5903,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.7292626 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.09375 = fieldNorm(doc=5903)
        0.012431616 = product of:
          0.037294846 = sum of:
            0.037294846 = weight(_text_:29 in 5903) [ClassicSimilarity], result of:
              0.037294846 = score(doc=5903,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.46638384 = fieldWeight in 5903, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5903)
          0.33333334 = coord(1/3)
        0.091186315 = weight(_text_:programme in 5903) [ClassicSimilarity], result of:
          0.091186315 = score(doc=5903,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.7292626 = fieldWeight in 5903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.09375 = fieldNorm(doc=5903)
      0.2 = coord(5/25)
    
    Abstract
    Die Pandemie stellt Computeralgorithmen vor ungeahnte Probleme: Plötzlich verhalten sich die Menschen völlig anders, als die Programme gelernt haben.
    Field
    Informatik
    Source
    Spektrum der Wissenschaft. 2020, H.7, S.29
  4. Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023) 0.03
    0.029192468 = product of:
      0.18245293 = sum of:
        0.012532243 = weight(_text_:der in 925) [ClassicSimilarity], result of:
          0.012532243 = score(doc=925,freq=2.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2467987 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
        0.0759886 = weight(_text_:programme in 925) [ClassicSimilarity], result of:
          0.0759886 = score(doc=925,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6077188 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
        0.017943494 = product of:
          0.05383048 = sum of:
            0.05383048 = weight(_text_:29 in 925) [ClassicSimilarity], result of:
              0.05383048 = score(doc=925,freq=6.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.6731671 = fieldWeight in 925, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=925)
          0.33333334 = coord(1/3)
        0.0759886 = weight(_text_:programme in 925) [ClassicSimilarity], result of:
          0.0759886 = score(doc=925,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6077188 = fieldWeight in 925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.078125 = fieldNorm(doc=925)
      0.16 = coord(4/25)
    
    Abstract
    Mit KI lassen sich in kurzer Zeit Texte erzeugen. Ob Studierende die Programme einsetzen dürfen, ist nicht einheitlich geregelt. Oft hängt die Entscheidung am Lehrpersonal, wie eine BR-Umfrage zeigt.
    Date
    29. 3.2023 13:23:26
    29. 3.2023 13:29:19
  5. Bischoff, M.: ¬Der doppelte Einstein (2023) 0.03
    0.02637836 = product of:
      0.16486475 = sum of:
        0.06960591 = weight(_text_:einzelne in 1063) [ClassicSimilarity], result of:
          0.06960591 = score(doc=1063,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 1063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
        0.017365186 = weight(_text_:der in 1063) [ClassicSimilarity], result of:
          0.017365186 = score(doc=1063,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34197432 = fieldWeight in 1063, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
        0.06960591 = weight(_text_:einzelne in 1063) [ClassicSimilarity], result of:
          0.06960591 = score(doc=1063,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.52023137 = fieldWeight in 1063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
        0.008287745 = product of:
          0.024863232 = sum of:
            0.024863232 = weight(_text_:29 in 1063) [ClassicSimilarity], result of:
              0.024863232 = score(doc=1063,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.31092256 = fieldWeight in 1063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1063)
          0.33333334 = coord(1/3)
      0.16 = coord(4/25)
    
    Abstract
    Viele hatten die Hoffnung auf eine Einstein-Kachel aufgegeben: eine einzelne Fliese, die eine Ebene lückenlos bedecken kann, ohne dass sich ein periodisches Muster ergibt. Doch nun hat ein Hobby-Mathematiker die Fachwelt mit seinen Entdeckungen überrascht. Diese einem Gespenst ähnelnde Kachel gilt als »Einstein« - und ist der zweite derartige spektakuläre Fund innerhalb von wenigen Monaten.
    Date
    25. 9.2023 18:29:25
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.12-21
  6. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.02
    0.023832837 = product of:
      0.119164184 = sum of:
        0.04350369 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.04350369 = score(doc=374,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.012532243 = weight(_text_:der in 374) [ClassicSimilarity], result of:
          0.012532243 = score(doc=374,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2467987 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.04350369 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.04350369 = score(doc=374,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.011924694 = product of:
          0.035774082 = sum of:
            0.035774082 = weight(_text_:z in 374) [ClassicSimilarity], result of:
              0.035774082 = score(doc=374,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.29484767 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.33333334 = coord(1/3)
        0.007699866 = product of:
          0.015399732 = sum of:
            0.015399732 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.015399732 = score(doc=374,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.2 = coord(5/25)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  7. Zeitz, M.: Warum der Mensch Robotern überlegen ist : Robotik (2024) 0.02
    0.023008564 = product of:
      0.19173804 = sum of:
        0.08700738 = weight(_text_:einzelne in 1207) [ClassicSimilarity], result of:
          0.08700738 = score(doc=1207,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.6502892 = fieldWeight in 1207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
        0.017723266 = weight(_text_:der in 1207) [ClassicSimilarity], result of:
          0.017723266 = score(doc=1207,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34902605 = fieldWeight in 1207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
        0.08700738 = weight(_text_:einzelne in 1207) [ClassicSimilarity], result of:
          0.08700738 = score(doc=1207,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.6502892 = fieldWeight in 1207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
      0.12 = coord(3/25)
    
    Abstract
    Zwar gelingen Maschinen spezielle Bewegungen überragend schnell oder präzise, und einzelne Komponenten mögen robuster und stärker sein. Aber eine umfassende Analyse zeigt nun: Wenn es darum geht, unsere alltägliche Welt zu bewältigen, liegen wir konkurrenzlos vorn - zumindest noch.
    Source
    Spektrum der Wissenschaft. 2024, H.2, S.30-32
  8. Holland, M.: Sechs Jahre nach AlphaGo : Mensch besiegt erneut "zuverlässig" stärkste Go-KIs (2023) 0.02
    0.02256873 = product of:
      0.14105457 = sum of:
        0.039234295 = weight(_text_:informatik in 907) [ClassicSimilarity], result of:
          0.039234295 = score(doc=907,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.3382494 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=907)
        0.01063396 = weight(_text_:der in 907) [ClassicSimilarity], result of:
          0.01063396 = score(doc=907,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.20941564 = fieldWeight in 907, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=907)
        0.045593157 = weight(_text_:programme in 907) [ClassicSimilarity], result of:
          0.045593157 = score(doc=907,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.3646313 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.046875 = fieldNorm(doc=907)
        0.045593157 = weight(_text_:programme in 907) [ClassicSimilarity], result of:
          0.045593157 = score(doc=907,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.3646313 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.046875 = fieldNorm(doc=907)
      0.16 = coord(4/25)
    
    Abstract
    Eigentlich galt es als klar, dass Menschen gegen Go-Programme den Kürzeren ziehen. Doch gegen eine neue Strategie sind die KI-Systeme - noch - chancenlos. Mehr als sechs Jahre nach dem publikumswirksamen Sieg von Googles-KI AlphaGo gegen den koreanischen Spitzenspieler Lee Sedol im Strategiespiel Go hat sich der Mensch die Krone gewissermaßen zurückerobert. Wie die Financial Times berichtet, ist es dem US-Amerikaner Kellin Pelrine gelungen, zwei besonders weit entwickelte KI-Systeme ohne direkte Hilfe eines Computers zu besiegen, obwohl er selbst lediglich auf gehobenem Amateurlevel spielt. Bereits im Januar habe er sich dafür eine Schwäche der KI zunutze gemacht, die wiederum von einer anderen KI entdeckt worden war. Die Strategie sei für Menschen "nicht superschwer zu lernen". Damit lassen sich KI-Systeme auf "übermenschlicher" Schwierigkeitsstufe zuverlässig schlagen, während auch Go-Neulinge dagegen bestehen.
    Field
    Informatik
  9. Siepmann, D.: Auswirkungen von KI auf die Textproduktion in der Wissenschaft (2023) 0.02
    0.021245 = product of:
      0.17704168 = sum of:
        0.025064485 = weight(_text_:der in 1044) [ClassicSimilarity], result of:
          0.025064485 = score(doc=1044,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.4935974 = fieldWeight in 1044, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.0759886 = weight(_text_:programme in 1044) [ClassicSimilarity], result of:
          0.0759886 = score(doc=1044,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6077188 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
        0.0759886 = weight(_text_:programme in 1044) [ClassicSimilarity], result of:
          0.0759886 = score(doc=1044,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.6077188 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.078125 = fieldNorm(doc=1044)
      0.12 = coord(3/25)
    
    Abstract
    KI-Tools können in allen Phasen des wissenschaftlichen Schreibens helfen, auch bei mehrsprachigen Texten. Über Fähigkeiten und Grenzen der KI. Mit einem Vergleich der Leistungen verschiedener Programme anhand eines Spektrums von Kriterien, die unterschiedliche Spitzenpositionen ermöglichen.
    Source
    Forschung und Lehre [https://www.forschung-und-lehre.de/zeitfragen/welche-auswirkungen-kis-auf-die-textproduktion-in-der-wissenschaft-haben-5740]
  10. Boczkowski, P.; Mitchelstein, E.: ¬The digital environment : How we live, learn, work, and play now (2021) 0.02
    0.019587744 = product of:
      0.1224234 = sum of:
        0.052312396 = weight(_text_:informatik in 1003) [ClassicSimilarity], result of:
          0.052312396 = score(doc=1003,freq=8.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.4509992 = fieldWeight in 1003, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.007089307 = weight(_text_:der in 1003) [ClassicSimilarity], result of:
          0.007089307 = score(doc=1003,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.13961042 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.05686181 = weight(_text_:datenverarbeitung in 1003) [ClassicSimilarity], result of:
          0.05686181 = score(doc=1003,freq=4.0), product of:
            0.14381175 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.022732547 = queryNorm
            0.39539057 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.0061598923 = product of:
          0.012319785 = sum of:
            0.012319785 = weight(_text_:22 in 1003) [ClassicSimilarity], result of:
              0.012319785 = score(doc=1003,freq=2.0), product of:
                0.079605505 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022732547 = queryNorm
                0.15476047 = fieldWeight in 1003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1003)
          0.5 = coord(1/2)
      0.16 = coord(4/25)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Date
    22. 6.2023 18:25:18
    RVK
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
  11. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.02
    0.016968915 = product of:
      0.10605572 = sum of:
        0.016347624 = weight(_text_:informatik in 5908) [ClassicSimilarity], result of:
          0.016347624 = score(doc=5908,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.14093725 = fieldWeight in 5908, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.037675302 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.037675302 = score(doc=5908,freq=6.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.014357488 = weight(_text_:der in 5908) [ClassicSimilarity], result of:
          0.014357488 = score(doc=5908,freq=42.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.28274342 = fieldWeight in 5908, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.037675302 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.037675302 = score(doc=5908,freq=6.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.16 = coord(4/25)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
    Field
    Informatik
  12. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.02
    0.016607497 = product of:
      0.13839582 = sum of:
        0.061523512 = weight(_text_:einzelne in 755) [ClassicSimilarity], result of:
          0.061523512 = score(doc=755,freq=4.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.4598239 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.0153487995 = weight(_text_:der in 755) [ClassicSimilarity], result of:
          0.0153487995 = score(doc=755,freq=12.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.30226544 = fieldWeight in 755, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.061523512 = weight(_text_:einzelne in 755) [ClassicSimilarity], result of:
          0.061523512 = score(doc=755,freq=4.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.4598239 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
      0.12 = coord(3/25)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
  13. Barth, T.: Inverse Panopticon : Digitalisierung & Transhumanismus [Transhumanismus II] (2020) 0.02
    0.01658837 = product of:
      0.13823642 = sum of:
        0.0653905 = weight(_text_:informatik in 5592) [ClassicSimilarity], result of:
          0.0653905 = score(doc=5592,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.563749 = fieldWeight in 5592, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.078125 = fieldNorm(doc=5592)
        0.017723266 = weight(_text_:der in 5592) [ClassicSimilarity], result of:
          0.017723266 = score(doc=5592,freq=4.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.34902605 = fieldWeight in 5592, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5592)
        0.05512266 = weight(_text_:t in 5592) [ClassicSimilarity], result of:
          0.05512266 = score(doc=5592,freq=4.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.6155326 = fieldWeight in 5592, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.078125 = fieldNorm(doc=5592)
      0.12 = coord(3/25)
    
    Abstract
    Transhumanisten fordern in der Digitalisierungsdebatte auch eine Revision der Menschenwürde - wir brauchen aber eine Umkehr von Machtstrukturen.
    Content
    Vgl.: Barth, T.: Digitalisierung und Lobby: Transhumanismus I. [12. Januar 2020]. Unter: https://www.heise.de/tp/features/Digitalisierung-und-Lobby-Transhumanismus-I-4633314.html?view=print.
    Field
    Informatik
  14. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.02
    0.016440585 = product of:
      0.13700488 = sum of:
        0.060905173 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.060905173 = score(doc=1047,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.015194537 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.015194537 = score(doc=1047,freq=6.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.060905173 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.060905173 = score(doc=1047,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.12 = coord(3/25)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
  15. Shanahan, M.: ¬ Die technologische Singularität (2021) 0.02
    0.016395621 = product of:
      0.13663018 = sum of:
        0.064651534 = weight(_text_:351 in 196) [ClassicSimilarity], result of:
          0.064651534 = score(doc=196,freq=2.0), product of:
            0.16310826 = queryWeight, product of:
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.022732547 = queryNorm
            0.39637193 = fieldWeight in 196, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.1750984 = idf(docFreq=91, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
        0.05662984 = weight(_text_:informatik in 196) [ClassicSimilarity], result of:
          0.05662984 = score(doc=196,freq=6.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.48822102 = fieldWeight in 196, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
        0.0153487995 = weight(_text_:der in 196) [ClassicSimilarity], result of:
          0.0153487995 = score(doc=196,freq=12.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.30226544 = fieldWeight in 196, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=196)
      0.12 = coord(3/25)
    
    Abstract
    Der Kognitionswissenschaftler Murray Shanahan befasst sich in seinem neuen Buch mit künstlicher Intelligenz und ihrer Bewusstwerdung. >Technologische Singularität< bezeichnet den Zeitpunkt, an dem von künstlicher Intelligenz gesteuerte Maschinen sich fortlaufend selbst so zu verbessern imstande sind, dass sie sich der Beherrschung durch Menschenhand entziehen. Der Robotikspezialist Murray Shanahan beschreibt die unterschiedlichen derzeit weltweit vorangetriebenen technologischen Entwicklungen, die zu einem solchen Ereignis führen können. Er führt auf verständliche Weise in die komplexen Forschungen ein, die unsere nächste Zukunft verändern werden. Aus der Perspektive eines Praktikers beschäftigt er sich mit der Frage, ob künstliche Intelligenz über Bewusstsein verfügen kann, und entwickelt moralische Ansätze zu einem verantwortlichen Umgang mit dieser zumeist als Katastrophenszenario gezeichneten Zukunftsfantasie.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    Field
    Informatik
    Footnote
    Originaltitel: The technological singularity. Rez. in: Spektrum der Wissenschaft. 2021, H.4, S.88-90 (A. Lobe).
    Isbn
    978-3-95757-351-3
  16. Lund, B.D.; Wang, T.; Mannuru, N.R.; Nie, B.; Shimray, S.; Wang, Z.: ChatGPT and a new academic reality : artificial Intelligence-written research papers and the ethics of the large language models in scholarly publishing (2023) 0.02
    0.015208845 = product of:
      0.12674038 = sum of:
        0.062302932 = weight(_text_:publishing in 943) [ClassicSimilarity], result of:
          0.062302932 = score(doc=943,freq=6.0), product of:
            0.11106311 = queryWeight, product of:
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.022732547 = queryNorm
            0.56096876 = fieldWeight in 943, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.885643 = idf(docFreq=907, maxDocs=44218)
              0.046875 = fieldNorm(doc=943)
        0.04105088 = product of:
          0.06157632 = sum of:
            0.0429289 = weight(_text_:z in 943) [ClassicSimilarity], result of:
              0.0429289 = score(doc=943,freq=2.0), product of:
                0.12133072 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.022732547 = queryNorm
                0.35381722 = fieldWeight in 943, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=943)
            0.018647423 = weight(_text_:29 in 943) [ClassicSimilarity], result of:
              0.018647423 = score(doc=943,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.23319192 = fieldWeight in 943, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=943)
          0.6666667 = coord(2/3)
        0.023386564 = weight(_text_:t in 943) [ClassicSimilarity], result of:
          0.023386564 = score(doc=943,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.26114836 = fieldWeight in 943, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.046875 = fieldNorm(doc=943)
      0.12 = coord(3/25)
    
    Abstract
    This article discusses OpenAI's ChatGPT, a generative pre-trained transformer, which uses natural language processing to fulfill text-based user requests (i.e., a "chatbot"). The history and principles behind ChatGPT and similar models are discussed. This technology is then discussed in relation to its potential impact on academia and scholarly research and publishing. ChatGPT is seen as a potential model for the automated preparation of essays and other types of scholarly manuscripts. Potential ethical issues that could arise with the emergence of large language models like GPT-3, the underlying technology behind ChatGPT, and its usage by academics and researchers, are discussed and situated within the context of broader advancements in artificial intelligence, machine learning, and natural language processing for research and scholarly publishing.
    Date
    19. 4.2023 19:29:44
  17. Menczer, F.; Hills, T.: ¬Die digitale Manipulation (2021) 0.01
    0.014028042 = product of:
      0.11690035 = sum of:
        0.0653905 = weight(_text_:informatik in 5147) [ClassicSimilarity], result of:
          0.0653905 = score(doc=5147,freq=2.0), product of:
            0.11599222 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.022732547 = queryNorm
            0.563749 = fieldWeight in 5147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.078125 = fieldNorm(doc=5147)
        0.012532243 = weight(_text_:der in 5147) [ClassicSimilarity], result of:
          0.012532243 = score(doc=5147,freq=2.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2467987 = fieldWeight in 5147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5147)
        0.038977608 = weight(_text_:t in 5147) [ClassicSimilarity], result of:
          0.038977608 = score(doc=5147,freq=2.0), product of:
            0.08955279 = queryWeight, product of:
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.022732547 = queryNorm
            0.43524727 = fieldWeight in 5147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9394085 = idf(docFreq=2338, maxDocs=44218)
              0.078125 = fieldNorm(doc=5147)
      0.12 = coord(3/25)
    
    Field
    Informatik
    Source
    Spektrum der Wissenschaft. 2021, H.4, S.70-77
  18. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.01
    0.013329675 = product of:
      0.11108063 = sum of:
        0.019894319 = weight(_text_:der in 248) [ClassicSimilarity], result of:
          0.019894319 = score(doc=248,freq=14.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.3917808 = fieldWeight in 248, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.045593157 = weight(_text_:programme in 248) [ClassicSimilarity], result of:
          0.045593157 = score(doc=248,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.3646313 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
        0.045593157 = weight(_text_:programme in 248) [ClassicSimilarity], result of:
          0.045593157 = score(doc=248,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.3646313 = fieldWeight in 248, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.046875 = fieldNorm(doc=248)
      0.12 = coord(3/25)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
    Source
    https://www.dfg.de/download/pdf/foerderung/programme/lis/datentracking_papier_de.pdf
  19. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.01
    0.012737553 = product of:
      0.07960971 = sum of:
        0.022791805 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.022791805 = score(doc=115,freq=54.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.44884127 = fieldWeight in 115, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.02659601 = weight(_text_:programme in 115) [ClassicSimilarity], result of:
          0.02659601 = score(doc=115,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21270159 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.003625888 = product of:
          0.010877663 = sum of:
            0.010877663 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.010877663 = score(doc=115,freq=2.0), product of:
                0.079965994 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022732547 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.33333334 = coord(1/3)
        0.02659601 = weight(_text_:programme in 115) [ClassicSimilarity], result of:
          0.02659601 = score(doc=115,freq=2.0), product of:
            0.12503907 = queryWeight, product of:
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.022732547 = queryNorm
            0.21270159 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.500443 = idf(docFreq=490, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.16 = coord(4/25)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49
  20. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.01
    0.011944754 = product of:
      0.09953962 = sum of:
        0.04350369 = weight(_text_:einzelne in 133) [ClassicSimilarity], result of:
          0.04350369 = score(doc=133,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.012532243 = weight(_text_:der in 133) [ClassicSimilarity], result of:
          0.012532243 = score(doc=133,freq=8.0), product of:
            0.05077921 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022732547 = queryNorm
            0.2467987 = fieldWeight in 133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.04350369 = weight(_text_:einzelne in 133) [ClassicSimilarity], result of:
          0.04350369 = score(doc=133,freq=2.0), product of:
            0.13379799 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.022732547 = queryNorm
            0.3251446 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.12 = coord(3/25)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.

Languages

  • d 433
  • e 241
  • m 2
  • More… Less…

Types

  • a 554
  • el 233
  • m 51
  • p 7
  • s 7
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications