Search (1456 results, page 1 of 73)

  • × type_ss:"el"
  1. Mair, D.: E-Learning: das Drehbuch : Handbuch für Medienautoren und Projektleiter (2005) 0.67
    0.66624546 = product of:
      1.1421351 = sum of:
        0.088364266 = weight(_text_:1960 in 1429) [ClassicSimilarity], result of:
          0.088364266 = score(doc=1429,freq=4.0), product of:
            0.15903759 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.022362119 = queryNorm
            0.55561876 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.1231334 = weight(_text_:didaktik in 1429) [ClassicSimilarity], result of:
          0.1231334 = score(doc=1429,freq=6.0), product of:
            0.16963933 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.022362119 = queryNorm
            0.72585404 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.026451368 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.026451368 = score(doc=1429,freq=38.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.53369546 = fieldWeight in 1429, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.12918504 = weight(_text_:methodik in 1429) [ClassicSimilarity], result of:
          0.12918504 = score(doc=1429,freq=8.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.7989179 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.021184362 = weight(_text_:des in 1429) [ClassicSimilarity], result of:
          0.021184362 = score(doc=1429,freq=10.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.3420828 = fieldWeight in 1429, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.13549124 = weight(_text_:unterrichts in 1429) [ClassicSimilarity], result of:
          0.13549124 = score(doc=1429,freq=4.0), product of:
            0.19693235 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.022362119 = queryNorm
            0.688009 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.077338964 = weight(_text_:spezielle in 1429) [ClassicSimilarity], result of:
          0.077338964 = score(doc=1429,freq=4.0), product of:
            0.1487855 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.022362119 = queryNorm
            0.51980174 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.045290772 = weight(_text_:fragen in 1429) [ClassicSimilarity], result of:
          0.045290772 = score(doc=1429,freq=4.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.39778042 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.010676386 = weight(_text_:der in 1429) [ClassicSimilarity], result of:
          0.010676386 = score(doc=1429,freq=6.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.21373394 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.12918504 = weight(_text_:methodik in 1429) [ClassicSimilarity], result of:
          0.12918504 = score(doc=1429,freq=8.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.7989179 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.17140485 = weight(_text_:unterrichtsformen in 1429) [ClassicSimilarity], result of:
          0.17140485 = score(doc=1429,freq=4.0), product of:
            0.22149964 = queryWeight, product of:
              9.905128 = idf(docFreq=5, maxDocs=44218)
              0.022362119 = queryNorm
            0.7738381 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.905128 = idf(docFreq=5, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.13760029 = weight(_text_:unterricht in 1429) [ClassicSimilarity], result of:
          0.13760029 = score(doc=1429,freq=8.0), product of:
            0.16688359 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.022362119 = queryNorm
            0.8245286 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.026451368 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.026451368 = score(doc=1429,freq=38.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.53369546 = fieldWeight in 1429, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.02037788 = product of:
          0.04075576 = sum of:
            0.04075576 = weight(_text_:deutschland in 1429) [ClassicSimilarity], result of:
              0.04075576 = score(doc=1429,freq=4.0), product of:
                0.108008005 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022362119 = queryNorm
                0.37734017 = fieldWeight in 1429, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1429)
          0.5 = coord(1/2)
      0.5833333 = coord(14/24)
    
    Abstract
    Dieses Praxishandbuch mit CD-ROM beschreibt, wie Projektleiter und Drehbuchautor in Teamarbeit ein Drehbuch erstellen, das lernpsychologischen Kriterien und der aktuellen Multimedia-Didaktik entspricht. Werkzeuge für das Konzipieren und Schreiben von Drehbüchern werden vorgestellt und evaluiert, sodass eine bedarfsgerechte Auswahl möglich wird. Das Handbuch ist angereichert mit Tipps für die Arbeitsorganisation und einem Abriss über das Berufsbild des Drehbuchautors. Im Anhang stehen zahlreiche Hilfsmittel bereit, z.B. eine Checkliste zur Prüfung eines fertiges Drehbuchs, eine Qualitätssicherungsmaßnahme, die Zeit und Kosten sparen hilft. Das direkt für den beruflichen Alltag geschriebene Handbuch zeigt mit praktisch anwendbaren Methoden und Arbeitshilfen sowie Tipps und Tricks, wie ein starkes Drehbuch entscheidend zur erfolgreichen Produktion von E-Learning beiträgt. Das Buch richtet sich an Projektleiter in Multimediaagenturen, Fachleute in Unternehmen sowie an (zukünftige) Drehbuchautoren.
    BK
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Classification
    DP 1960 Pädagogik / Didaktik und Methodik des Unterrichts / Spezielle Fragen der Methodik / Unterrichtsformen (allgemein) / Computerunterstützter Unterricht / Allgemeines und Deutschland
    AP 50600 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Film / Filmthemen und Drehbuch / Technik des Drehbuchschreibens
    81.68 / Computereinsatz in Unterricht und Ausbildung
    RVK
    DP 1960 Pädagogik / Didaktik und Methodik des Unterrichts / Spezielle Fragen der Methodik / Unterrichtsformen (allgemein) / Computerunterstützter Unterricht / Allgemeines und Deutschland
    AP 50600 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Film / Filmthemen und Drehbuch / Technik des Drehbuchschreibens
  2. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.24
    0.23677984 = product of:
      0.94711936 = sum of:
        0.05919496 = product of:
          0.17758487 = sum of:
            0.17758487 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.17758487 = score(doc=1826,freq=2.0), product of:
                0.1895863 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022362119 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.17758487 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17758487 = score(doc=1826,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17758487 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17758487 = score(doc=1826,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17758487 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17758487 = score(doc=1826,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17758487 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17758487 = score(doc=1826,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17758487 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17758487 = score(doc=1826,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.25 = coord(6/24)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.22143088 = product of:
      0.5314341 = sum of:
        0.02959748 = product of:
          0.088792436 = sum of:
            0.088792436 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.088792436 = score(doc=4388,freq=2.0), product of:
                0.1895863 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022362119 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.088792436 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.088792436 = score(doc=4388,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010510708 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010510708 = score(doc=4388,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.016409338 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.016409338 = score(doc=4388,freq=6.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.088792436 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.088792436 = score(doc=4388,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.020443723 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.020443723 = score(doc=4388,freq=22.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.088792436 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.088792436 = score(doc=4388,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.088792436 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.088792436 = score(doc=4388,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.088792436 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.088792436 = score(doc=4388,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010510708 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010510708 = score(doc=4388,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.41666666 = coord(10/24)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.19
    0.18942387 = product of:
      0.7576955 = sum of:
        0.047355965 = product of:
          0.1420679 = sum of:
            0.1420679 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.1420679 = score(doc=230,freq=2.0), product of:
                0.1895863 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.022362119 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.1420679 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1420679 = score(doc=230,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1420679 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1420679 = score(doc=230,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1420679 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1420679 = score(doc=230,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1420679 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1420679 = score(doc=230,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1420679 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1420679 = score(doc=230,freq=2.0), product of:
            0.1895863 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.022362119 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.25 = coord(6/24)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  5. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.18
    0.17922084 = product of:
      0.39102727 = sum of:
        0.00602273 = product of:
          0.018068189 = sum of:
            0.018068189 = weight(_text_:p in 5000) [ClassicSimilarity], result of:
              0.018068189 = score(doc=5000,freq=4.0), product of:
                0.08040328 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.022362119 = queryNorm
                0.22471954 = fieldWeight in 5000, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.33333334 = coord(1/3)
        0.056872874 = weight(_text_:didaktik in 5000) [ClassicSimilarity], result of:
          0.056872874 = score(doc=5000,freq=2.0), product of:
            0.16963933 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.022362119 = queryNorm
            0.3352576 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.018164579 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.018164579 = score(doc=5000,freq=28.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.051674012 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.051674012 = score(doc=5000,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.007579148 = weight(_text_:des in 5000) [ClassicSimilarity], result of:
          0.007579148 = score(doc=5000,freq=2.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.12238726 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.07664541 = weight(_text_:unterrichts in 5000) [ClassicSimilarity], result of:
          0.07664541 = score(doc=5000,freq=2.0), product of:
            0.19693235 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.022362119 = queryNorm
            0.38919666 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.020331904 = weight(_text_:der in 5000) [ClassicSimilarity], result of:
          0.020331904 = score(doc=5000,freq=34.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.40703082 = fieldWeight in 5000, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.051674012 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.051674012 = score(doc=5000,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.07783848 = weight(_text_:unterricht in 5000) [ClassicSimilarity], result of:
          0.07783848 = score(doc=5000,freq=4.0), product of:
            0.16688359 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.022362119 = queryNorm
            0.4664238 = fieldWeight in 5000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.018164579 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.018164579 = score(doc=5000,freq=28.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.0060595167 = product of:
          0.012119033 = sum of:
            0.012119033 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.012119033 = score(doc=5000,freq=2.0), product of:
                0.07830833 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.022362119 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.5 = coord(1/2)
      0.45833334 = coord(11/24)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Content
    Vgl. auch: Häring, N. u. Hensinger, P.: "Digitale Bildung": Der abschüssige Weg zur Konditionierungsanstalt. Unter: http://norberthaering.de/de/27-german/news/1100-digitale-bildung [27.01.2019].
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  6. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.07
    0.06647038 = product of:
      0.22789845 = sum of:
        0.021879785 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021879785 = score(doc=3068,freq=26.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06459252 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06459252 = score(doc=3068,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.018492043 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.018492043 = score(doc=3068,freq=18.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.37019804 = fieldWeight in 3068, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06459252 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06459252 = score(doc=3068,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.007643151 = product of:
          0.015286302 = sum of:
            0.015286302 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.015286302 = score(doc=3068,freq=2.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
        0.021879785 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021879785 = score(doc=3068,freq=26.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.02881867 = product of:
          0.05763734 = sum of:
            0.05763734 = weight(_text_:deutschland in 3068) [ClassicSimilarity], result of:
              0.05763734 = score(doc=3068,freq=8.0), product of:
                0.108008005 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022362119 = queryNorm
                0.53363955 = fieldWeight in 3068, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  7. Inhalte statt Geräte (2016) 0.06
    0.05578921 = product of:
      0.1912773 = sum of:
        0.021161094 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.021161094 = score(doc=759,freq=38.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.019098502 = weight(_text_:der in 759) [ClassicSimilarity], result of:
          0.019098502 = score(doc=759,freq=30.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.3823389 = fieldWeight in 759, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.0061145206 = product of:
          0.012229041 = sum of:
            0.012229041 = weight(_text_:29 in 759) [ClassicSimilarity], result of:
              0.012229041 = score(doc=759,freq=2.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.15546128 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
        0.07783848 = weight(_text_:unterricht in 759) [ClassicSimilarity], result of:
          0.07783848 = score(doc=759,freq=4.0), product of:
            0.16688359 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.022362119 = queryNorm
            0.4664238 = fieldWeight in 759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.03437615 = weight(_text_:allgemeinen in 759) [ClassicSimilarity], result of:
          0.03437615 = score(doc=759,freq=2.0), product of:
            0.13188718 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.022362119 = queryNorm
            0.26064816 = fieldWeight in 759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.021161094 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.021161094 = score(doc=759,freq=38.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.011527469 = product of:
          0.023054939 = sum of:
            0.023054939 = weight(_text_:deutschland in 759) [ClassicSimilarity], result of:
              0.023054939 = score(doc=759,freq=2.0), product of:
                0.108008005 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022362119 = queryNorm
                0.21345583 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung.
    Content
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben."
    Date
    5.11.2022 18:29:47
    Issue
    [Presseinformation der Deutschen Mathematiker-Vereinigung vom 15.11.2016].
  8. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.05
    0.052433718 = product of:
      0.20973487 = sum of:
        0.0126128495 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.0126128495 = score(doc=4598,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07751101 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07751101 = score(doc=4598,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.011368722 = weight(_text_:des in 4598) [ClassicSimilarity], result of:
          0.011368722 = score(doc=4598,freq=2.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.18358089 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.018118428 = weight(_text_:der in 4598) [ClassicSimilarity], result of:
          0.018118428 = score(doc=4598,freq=12.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.36271852 = fieldWeight in 4598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07751101 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07751101 = score(doc=4598,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.0126128495 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.0126128495 = score(doc=4598,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
      0.25 = coord(6/24)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5382. https://doi.org/10.5282/o-bib/2018H4S181-192.
  9. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.05
    0.05121659 = product of:
      0.24583964 = sum of:
        0.009709376 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009709376 = score(doc=2521,freq=2.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.103348024 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.103348024 = score(doc=2521,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.019724846 = weight(_text_:der in 2521) [ClassicSimilarity], result of:
          0.019724846 = score(doc=2521,freq=8.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.3948779 = fieldWeight in 2521, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.103348024 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.103348024 = score(doc=2521,freq=2.0), product of:
            0.16170001 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.022362119 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.009709376 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009709376 = score(doc=2521,freq=2.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.20833333 = coord(5/24)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  10. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.05
    0.047217164 = product of:
      0.18886866 = sum of:
        0.06264451 = product of:
          0.18793353 = sum of:
            0.18793353 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.18793353 = score(doc=31,freq=2.0), product of:
                0.21805252 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.022362119 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013731131 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013731131 = score(doc=31,freq=4.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.026254939 = weight(_text_:des in 31) [ClassicSimilarity], result of:
          0.026254939 = score(doc=31,freq=6.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.42396194 = fieldWeight in 31, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.009862423 = weight(_text_:der in 31) [ClassicSimilarity], result of:
          0.009862423 = score(doc=31,freq=2.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.19743896 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.06264451 = product of:
          0.18793353 = sum of:
            0.18793353 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.18793353 = score(doc=31,freq=2.0), product of:
                0.21805252 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.022362119 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013731131 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013731131 = score(doc=31,freq=4.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
      0.25 = coord(6/24)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  11. Bundesregierung: Digitale Bildung voranbringen (2016) 0.05
    0.04696114 = product of:
      0.18784456 = sum of:
        0.02081014 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.02081014 = score(doc=3451,freq=48.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.01725924 = weight(_text_:der in 3451) [ClassicSimilarity], result of:
          0.01725924 = score(doc=3451,freq=32.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.34551817 = fieldWeight in 3451, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.06810867 = weight(_text_:unterricht in 3451) [ClassicSimilarity], result of:
          0.06810867 = score(doc=3451,freq=4.0), product of:
            0.16688359 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.022362119 = queryNorm
            0.40812084 = fieldWeight in 3451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.030079134 = weight(_text_:allgemeinen in 3451) [ClassicSimilarity], result of:
          0.030079134 = score(doc=3451,freq=2.0), product of:
            0.13188718 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.022362119 = queryNorm
            0.22806714 = fieldWeight in 3451, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.02081014 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.02081014 = score(doc=3451,freq=48.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.030777225 = sum of:
          0.020173071 = weight(_text_:deutschland in 3451) [ClassicSimilarity], result of:
            0.020173071 = score(doc=3451,freq=2.0), product of:
              0.108008005 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022362119 = queryNorm
              0.18677385 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
          0.010604154 = weight(_text_:22 in 3451) [ClassicSimilarity], result of:
            0.010604154 = score(doc=3451,freq=2.0), product of:
              0.07830833 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022362119 = queryNorm
              0.1354154 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
      0.25 = coord(6/24)
    
    Abstract
    Webseite zum Nationalen IT-Bildungsgipfel am 16./17.11.2016 in Saarbrücken: ""Lernen und Handeln in der digitalen Welt prägen unseren Alltag", so Bundeskanzlerin Merkel auf dem IT-Gipfel in Saarbrücken. Deshalb müsse digitale Bildung auch allen zugänglich sein. Sie appellierte an Schüler und Lehrer, neuen Entwicklungen offen und neugierig gegenüber zu stehen."
    Content
    Vgl.dazu die Presseinformation der Deutschen Mathematiker Vereinigung: "*Inhalte statt Geräte* Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung./
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben." (https://dmv.mathematik.de/index.php/aktuell-presse/presseinformationen)
    Vgl. auch das Interview von Nicole Köster mit Gerald Lembke zum Thema Digitale Medien und Digitale Bildung unter: http://www.swr.de/swr1/bw/programm/leute/wirtschaftswissenschaftler-und-experte-fuer-digitale-medien-gerald-lembke/-/id=1895042/did=19052140/nid=1895042/1izaxt1/index.html.
    Date
    22. 2.2017 17:14:47
  12. Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005) 0.04
    0.040213764 = product of:
      0.16085505 = sum of:
        0.022246975 = weight(_text_:und in 4881) [ClassicSimilarity], result of:
          0.022246975 = score(doc=4881,freq=42.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.44886562 = fieldWeight in 4881, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.015158296 = weight(_text_:des in 4881) [ClassicSimilarity], result of:
          0.015158296 = score(doc=4881,freq=8.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.24477452 = fieldWeight in 4881, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.03623262 = weight(_text_:fragen in 4881) [ClassicSimilarity], result of:
          0.03623262 = score(doc=4881,freq=4.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.31822434 = fieldWeight in 4881, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.016354978 = weight(_text_:der in 4881) [ClassicSimilarity], result of:
          0.016354978 = score(doc=4881,freq=22.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.32741547 = fieldWeight in 4881, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.04861522 = weight(_text_:allgemeinen in 4881) [ClassicSimilarity], result of:
          0.04861522 = score(doc=4881,freq=4.0), product of:
            0.13188718 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.022362119 = queryNorm
            0.36861217 = fieldWeight in 4881, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.022246975 = weight(_text_:und in 4881) [ClassicSimilarity], result of:
          0.022246975 = score(doc=4881,freq=42.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.44886562 = fieldWeight in 4881, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
      0.25 = coord(6/24)
    
    Editor
    Bundesamt für Sicherheit in der Informationstechnik
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
    Imprint
    Bonn : Bundesamt für Sicherheit in der Informationstechnik
  13. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.04
    0.03813125 = product of:
      0.152525 = sum of:
        0.019466104 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019466104 = score(doc=115,freq=42.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.018757433 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.018757433 = score(doc=115,freq=16.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.302893 = fieldWeight in 115, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.06706474 = weight(_text_:unterrichts in 115) [ClassicSimilarity], result of:
          0.06706474 = score(doc=115,freq=2.0), product of:
            0.19693235 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.022362119 = queryNorm
            0.34054708 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.02242041 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.02242041 = score(doc=115,freq=54.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.44884127 = fieldWeight in 115, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0053502056 = product of:
          0.010700411 = sum of:
            0.010700411 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.010700411 = score(doc=115,freq=2.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.019466104 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019466104 = score(doc=115,freq=42.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.25 = coord(6/24)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49
  14. Capurro, R.: Skeptisches Wissensmanagement (2003) 0.04
    0.036934964 = product of:
      0.14773986 = sum of:
        0.01751434 = weight(_text_:und in 750) [ClassicSimilarity], result of:
          0.01751434 = score(doc=750,freq=34.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.35337773 = fieldWeight in 750, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.02097145 = weight(_text_:des in 750) [ClassicSimilarity], result of:
          0.02097145 = score(doc=750,freq=20.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.3386447 = fieldWeight in 750, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.038828753 = weight(_text_:fragen in 750) [ClassicSimilarity], result of:
          0.038828753 = score(doc=750,freq=6.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.3410257 = fieldWeight in 750, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.02283183 = weight(_text_:der in 750) [ClassicSimilarity], result of:
          0.02283183 = score(doc=750,freq=56.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.4570776 = fieldWeight in 750, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.030079134 = weight(_text_:allgemeinen in 750) [ClassicSimilarity], result of:
          0.030079134 = score(doc=750,freq=2.0), product of:
            0.13188718 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.022362119 = queryNorm
            0.22806714 = fieldWeight in 750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
        0.01751434 = weight(_text_:und in 750) [ClassicSimilarity], result of:
          0.01751434 = score(doc=750,freq=34.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.35337773 = fieldWeight in 750, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=750)
      0.25 = coord(6/24)
    
    Abstract
    "Ich bestreite, dass wir wissen, ob wir etwas wissen oder nicht wissen; noch nicht einmal das wissen wir oder wissen es nicht; noch überhaupt, ob etwas ist oder nichts ist." So lautet die gegenüber dem Sokratischen Nicht-Wissen gesteigerte Skepsis des Metrodor von Chios, eines Schülers des Demokrit, in einem von Cicero tradierten Zitat (Diels/Kranz 1956, B1). Managen läßt sich nur, was ist und wovon wir ein Wissen haben können. Also läßt sich Wissen nicht managen. Skeptisches Wissensmanagement - ein Oxymoron? Demgegenüber steht unsere heutige gewaltige Wissens- und Informationsindustrie und die durch sie mitverursachte dritte industrielle Revolution. Die Industriegesellschaft ist zu einer Wissensindustriegesellschaft geworden. Es steht also nicht nur fest, dass wir wissen, sondern, dass wir viel wissen und wissen können. Die Frage ist nur, wie wir das Wissen und das Wissenkönnen nutzen. Der Skeptiker hat kein Kriterium um wahre von falschen Meinungen zu unterscheiden. Er enthält sich deshalb des Urteils und erreicht damit die innere Ruhe (ataraxia). Er beherrscht, so Friedo Ricken, "die Kunst, 'Erscheinungen' (phainomena) und 'Gedanken' (noumena) einander entgegenzusetzen. Er ist imstande, zu jeder Wahrnehmung eine andere zu finden, die mit der ersten nicht vereinbar ist." (Ricken 1994, 105). Paradoxerweise können wir sagen, dass der Skeptiker ein Manager des Nicht-Wissens ist. Sein Ziel ist, wie schon bei Sokrates, therapeutisch: Er will nämlich vom vorschnellen Urteil sowie vom Dünkel (oiesis) heilen und dafür letztlich, im Unterschied zur sokratischen Heilkunst, den Patienten von der Wahrheitssuche befreien (Ricken 1994, 106-107). Paradox ist auch, dass der Skeptiker zwar den Dogmatiker, der nach sicherer Erkenntnis (episteme) sucht, bekämpft, aber als Ziel seiner Lebenstechnik eine Lebensform anstrebt, bei der der Wert der 'inneren Ruhe' feststeht. Dafür muß er die Wahrheitssuche und die Suche nach Werturteilen aufgeben. Dogmatiker und Skeptiker haben aber etwas gemeinsam, sie kritisieren die Einstellung der bloßen Meinung (doxa). Skeptisches Denken, so Long, "findet sich überall da, wo die Kluft zwischen göttlichem und menschlichem Verstand betont wird." (Long 1995, Sp. 940) Der Skeptiker radikalisiert die Frage des Vertrauens in göttliches Wissen, indem er seine Skepsis auf das menschliche Wissen, sei es im Alltag (doxa) oder in der Wissenschaft (episteme), ausdehnt. Aus der Sicht des Skeptikers ist Wissensmanagement eine Technik, die etwas vorgibt, was sie nicht leisten kann. Ricken stellt das Denken von Peirce, Wittgenstein und Heidegger in die skeptische Tradition, sofern sie nämlich fundamentalistische Ansprüche der mit Descartes einsetzenden neuzeitlichen Philosophie in Frage stellen. Skeptische Argumentationsfiguren, wie die fünf Tropen des Agrippa (ca. 1. Jh. v.Chr.) - der Dissens (diaphonia), der unendliche Regreß, die Relativität des Urteilenden, die Setzung einer Hypothese und der Zirkelschluß -, finden sich teilweise heute wieder zum Beispiel in der Kritik des naiven Realismus durch das 'Münchhausen-Trilemma' eines Hans Albert (Ricken 1994, 161). Die antike Philosophie wiederum reagierte auf den Skeptizismus mit unterschiedlichen Strategien. Dazu gehören zum Beispiel die Platonische Kritik des sensualistischen Seinsbegriffs und die aristotelische Differenzierung der Wissensarten. Im Folgenden soll exemplarisch gezeigt werden, wie in der gegenwärtigen betriebswirtschaftlichen Diskussion um das Wissensmanagement klassische Fragen und Argumentationsfiguren aus den skeptischen und kritischen Traditionen der Hermeneutik und der Wissenschaftstheorie sowie aus der aristotelischen Wissenstypologie zum Ausdruck kommen.
    Content
    Vortrag an der Akademie für Technikfolgenabschätzung am 23.1.2001 sowie bei der 4. Tagung "Wirtschaftsethische Fragen der E-Economy" / Ausschuss für Wirtschaftsethik der Allgemeinen Gesellschaft für Philosophie, 15.-17. November 2001, Stuttgart. Erscheint in: Peter Fischer, Christoph Hubig, Peter Koslowski (Hrsg.): Wirtschaftsethische Fragen der E-Economy. Heidelberg: Physica Verlag 2003, S. 67-85.
  15. Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020) 0.04
    0.036486614 = product of:
      0.14594646 = sum of:
        0.02081014 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.02081014 = score(doc=5847,freq=12.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.018757433 = weight(_text_:des in 5847) [ClassicSimilarity], result of:
          0.018757433 = score(doc=5847,freq=4.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.302893 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.04483558 = weight(_text_:fragen in 5847) [ClassicSimilarity], result of:
          0.04483558 = score(doc=5847,freq=2.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.39378253 = fieldWeight in 5847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.012204126 = weight(_text_:der in 5847) [ClassicSimilarity], result of:
          0.012204126 = score(doc=5847,freq=4.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.24431825 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.02081014 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.02081014 = score(doc=5847,freq=12.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.02852903 = product of:
          0.05705806 = sum of:
            0.05705806 = weight(_text_:deutschland in 5847) [ClassicSimilarity], result of:
              0.05705806 = score(doc=5847,freq=4.0), product of:
                0.108008005 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.022362119 = queryNorm
                0.5282762 = fieldWeight in 5847, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5847)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
  16. Aleksander, K.; Bucher, M.; Dornick, S.; Franke-Maier, M.; Strickert, M.: Mehr Wissen sichtbar machen : Inhaltserschließung in Bibliotheken und alternative Zukünfte. (2022) 0.04
    0.036035884 = product of:
      0.14414354 = sum of:
        0.02001639 = weight(_text_:und in 677) [ClassicSimilarity], result of:
          0.02001639 = score(doc=677,freq=34.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.40386027 = fieldWeight in 677, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.007579148 = weight(_text_:des in 677) [ClassicSimilarity], result of:
          0.007579148 = score(doc=677,freq=2.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.12238726 = fieldWeight in 677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.044375718 = weight(_text_:fragen in 677) [ClassicSimilarity], result of:
          0.044375718 = score(doc=677,freq=6.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.38974366 = fieldWeight in 677, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.017779736 = weight(_text_:der in 677) [ClassicSimilarity], result of:
          0.017779736 = score(doc=677,freq=26.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.35593814 = fieldWeight in 677, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.03437615 = weight(_text_:allgemeinen in 677) [ClassicSimilarity], result of:
          0.03437615 = score(doc=677,freq=2.0), product of:
            0.13188718 = queryWeight, product of:
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.022362119 = queryNorm
            0.26064816 = fieldWeight in 677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8977947 = idf(docFreq=329, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.02001639 = weight(_text_:und in 677) [ClassicSimilarity], result of:
          0.02001639 = score(doc=677,freq=34.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.40386027 = fieldWeight in 677, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
      0.25 = coord(6/24)
    
    Abstract
    Dieser Werkstattbericht beschäftigt sich mit Diskriminierung in Wissensorganisationssystemen. Dabei geht es um die Fragen, inwiefern Wissensorganisationssysteme als Ordnungssysteme bestimmte Perspektiven und Informationen (nicht) abdecken; wie bei der Erstellung und Pflege, insbesondere bei der Inhaltsanalyse, vorgegangen wird und welche bibliotheksethischen Fragen im Zuge dessen bedeutsam sind. Gleichzeitig dreht er sich auch um die Frage, inwiefern in diese Prozesse und Systeme interveniert werden kann und welche Erwartungen und Wünsche an derzeitige Systeme und zukünftige Entwicklungen der Wissensorganisation gestellt werden.
    "Der Text basiert auf einem Dialog, der versucht, die unterschiedlichen Hintergründe und Perspektiven der Beteiligten auf das vielschichtige Thema Wissensorganisation, und hier vor allem als Inhaltserschliessung, zu vermitteln. Die dafür geführten umfangreichen Gespräche zeichneten sich durch notwendige Übersetzungen von unterschiedlichen Sicht- beziehungsweise Denkweisen aus. In diesem Prozess von Übersetzung und Rückübersetzung zeigten sich auch widerstreitende Positionen, die in einen produktiven Austausch gebracht werden konnten. Die Richtung des vorliegenden Textes passte sich immer wieder den in der Gruppe geführten Diskussionen an. Der Redaktionsprozess war aus diesem Grund ein iterativer, der immer wieder versuchte, neu gewonnene Erkenntnisse und Diskussionsergebnisse aufzunehmen und in eine Textform zu überführen. Diese Form stellt Argumente in einen loseren Zusammenhang als ein stringent argumentierter Artikel. Manche Themen werden eher angerissen als in der Tiefe erörtert."
    "Auch unter bibliotheksethischen Aspekten sind Erwerbung und Inhaltserschließung verschiedenster Wissen einer Gesellschaft wünschenswert. Auf der Ebene der angewandten Wissensorganisationssysteme entstehen dabei Fragen im Zusammenhang mit solchen "allgemeinen" bibliotheksethischen Werten, wie zum Beispiel Gleichbehandlung und Neutralität, aber auch der Orientierung am Nutzer*innenbedarf, Informationen, Inhalte, Ressourcen suchen und finden zu können. Letztlich stellt sich die Frage: Müssen Bibliotheken neutral sein? Und gibt es zum Beispiel einen Anspruch auf unkommentierten access to disinformation?"
  17. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.04
    0.035203684 = product of:
      0.14081474 = sum of:
        0.0126128495 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.0126128495 = score(doc=2248,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.0160778 = weight(_text_:des in 2248) [ClassicSimilarity], result of:
          0.0160778 = score(doc=2248,freq=4.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.25962257 = fieldWeight in 2248, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.016539786 = weight(_text_:der in 2248) [ClassicSimilarity], result of:
          0.016539786 = score(doc=2248,freq=10.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.3311152 = fieldWeight in 2248, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015885992 = product of:
          0.031771984 = sum of:
            0.031771984 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
              0.031771984 = score(doc=2248,freq=6.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.40390027 = fieldWeight in 2248, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
        0.0126128495 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.0126128495 = score(doc=2248,freq=6.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.06708546 = sum of:
          0.04890691 = weight(_text_:deutschland in 2248) [ClassicSimilarity], result of:
            0.04890691 = score(doc=2248,freq=4.0), product of:
              0.108008005 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022362119 = queryNorm
              0.4528082 = fieldWeight in 2248, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.018178549 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
            0.018178549 = score(doc=2248,freq=2.0), product of:
              0.07830833 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022362119 = queryNorm
              0.23214069 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
      0.25 = coord(6/24)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Content
    https://www.o-bib.de/article/view/2017H4S22-29. DOI: https://doi.org/10.5282/o-bib/2017H4S22-29.
    Footnote
    Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  18. Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999) 0.03
    0.03378844 = product of:
      0.13515376 = sum of:
        0.012844297 = weight(_text_:und in 3315) [ClassicSimilarity], result of:
          0.012844297 = score(doc=3315,freq=14.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.25915268 = fieldWeight in 3315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.010718534 = weight(_text_:des in 3315) [ClassicSimilarity], result of:
          0.010718534 = score(doc=3315,freq=4.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.17308173 = fieldWeight in 3315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.014793634 = weight(_text_:der in 3315) [ClassicSimilarity], result of:
          0.014793634 = score(doc=3315,freq=18.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.29615843 = fieldWeight in 3315, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.0061145206 = product of:
          0.012229041 = sum of:
            0.012229041 = weight(_text_:29 in 3315) [ClassicSimilarity], result of:
              0.012229041 = score(doc=3315,freq=2.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.15546128 = fieldWeight in 3315, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3315)
          0.5 = coord(1/2)
        0.07783848 = weight(_text_:unterricht in 3315) [ClassicSimilarity], result of:
          0.07783848 = score(doc=3315,freq=4.0), product of:
            0.16688359 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.022362119 = queryNorm
            0.4664238 = fieldWeight in 3315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.012844297 = weight(_text_:und in 3315) [ClassicSimilarity], result of:
          0.012844297 = score(doc=3315,freq=14.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.25915268 = fieldWeight in 3315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
      0.25 = coord(6/24)
    
    Abstract
    Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
    BK
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Classification
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Content
    Immer öfter verlieren wir die Orientierung im Meer des Wißbaren. Die 256 Begriffe, in denen Artur Schmidts Wissensnavigator die wesentlichen Technologien, Managementgrundlagen, Lebensperspektiven und Werterhaltungen unserer Zeit zusammenfaßt, haben zum Ziel, uns auf Kurs in Richtung Zukunft zu bringen. Artikel zu den wichtigsten neuen Wissensgebieten und Technologien beiten dem Leser einen 'Leitfaden', der durch die Einzeldisziplinen hindurchführt und sie zusammenführt, um daraus eine Perspektive für die Welt von morgen zu entwickeln. Mit Hilfe der beigefügten CD kann das Lexikon der Zukunft auf dem Internet frei schwimmen, ohne dabei seine eigentliche Funktion zu verlieren - eine geistige Landkarte zur Verfügung zu stellen, mit deren Hilfe such zielführend und erfolgreich in Wissensnetzen navigieren läßt
    Date
    25. 2.2008 19:29:40
  19. Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020) 0.03
    0.033718318 = product of:
      0.13487327 = sum of:
        0.02625574 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.02625574 = score(doc=27,freq=26.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.011368722 = weight(_text_:des in 27) [ClassicSimilarity], result of:
          0.011368722 = score(doc=27,freq=2.0), product of:
            0.061927587 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.022362119 = queryNorm
            0.18358089 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.038430493 = weight(_text_:fragen in 27) [ClassicSimilarity], result of:
          0.038430493 = score(doc=27,freq=2.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.33752787 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.02339079 = weight(_text_:der in 27) [ClassicSimilarity], result of:
          0.02339079 = score(doc=27,freq=20.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.46826762 = fieldWeight in 27, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.009171781 = product of:
          0.018343562 = sum of:
            0.018343562 = weight(_text_:29 in 27) [ClassicSimilarity], result of:
              0.018343562 = score(doc=27,freq=2.0), product of:
                0.07866294 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.022362119 = queryNorm
                0.23319192 = fieldWeight in 27, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=27)
          0.5 = coord(1/2)
        0.02625574 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.02625574 = score(doc=27,freq=26.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
      0.25 = coord(6/24)
    
    Abstract
    Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
    Content
    Vgl. auch: https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki. Vgl. auch: https://www.tabea-roessner.de/2020/10/28/der-abschlussbericht-der-enquete-kommission-ki-ist-da/.
    Date
    6.11.2020 10:29:02
  20. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.03
    0.03337801 = product of:
      0.16021444 = sum of:
        0.02081014 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.02081014 = score(doc=252,freq=12.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.04483558 = weight(_text_:fragen in 252) [ClassicSimilarity], result of:
          0.04483558 = score(doc=252,freq=2.0), product of:
            0.11385873 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.022362119 = queryNorm
            0.39378253 = fieldWeight in 252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.012204126 = weight(_text_:der in 252) [ClassicSimilarity], result of:
          0.012204126 = score(doc=252,freq=4.0), product of:
            0.04995176 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.022362119 = queryNorm
            0.24431825 = fieldWeight in 252, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.02081014 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.02081014 = score(doc=252,freq=12.0), product of:
            0.049562663 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.022362119 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.06155445 = sum of:
          0.040346142 = weight(_text_:deutschland in 252) [ClassicSimilarity], result of:
            0.040346142 = score(doc=252,freq=2.0), product of:
              0.108008005 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.022362119 = queryNorm
              0.3735477 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
          0.021208309 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
            0.021208309 = score(doc=252,freq=2.0), product of:
              0.07830833 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.022362119 = queryNorm
              0.2708308 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
      0.20833333 = coord(5/24)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05

Years

Languages

  • d 995
  • e 419
  • a 12
  • m 3
  • el 2
  • f 2
  • i 1
  • nl 1
  • no 1
  • s 1
  • More… Less…

Types

  • a 626
  • i 116
  • p 34
  • m 30
  • r 25
  • b 23
  • x 20
  • n 11
  • s 10
  • l 3
  • More… Less…

Themes

Subjects

Classifications