Search (1456 results, page 1 of 73)

  • × type_ss:"el"
  1. Mair, D.: E-Learning: das Drehbuch : Handbuch für Medienautoren und Projektleiter (2005) 0.75
    0.7505668 = product of:
      1.2009069 = sum of:
        0.08679919 = weight(_text_:1960 in 1429) [ClassicSimilarity], result of:
          0.08679919 = score(doc=1429,freq=4.0), product of:
            0.15622076 = queryWeight, product of:
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.021966046 = queryNorm
            0.55561876 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.11192 = idf(docFreq=97, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.12095248 = weight(_text_:didaktik in 1429) [ClassicSimilarity], result of:
          0.12095248 = score(doc=1429,freq=6.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            0.72585404 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.025982868 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.025982868 = score(doc=1429,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.53369546 = fieldWeight in 1429, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.12689693 = weight(_text_:methodik in 1429) [ClassicSimilarity], result of:
          0.12689693 = score(doc=1429,freq=8.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.7989179 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.02080915 = weight(_text_:des in 1429) [ClassicSimilarity], result of:
          0.02080915 = score(doc=1429,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3420828 = fieldWeight in 1429, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.13309143 = weight(_text_:unterrichts in 1429) [ClassicSimilarity], result of:
          0.13309143 = score(doc=1429,freq=4.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.688009 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.07596915 = weight(_text_:spezielle in 1429) [ClassicSimilarity], result of:
          0.07596915 = score(doc=1429,freq=4.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.51980174 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.044488594 = weight(_text_:fragen in 1429) [ClassicSimilarity], result of:
          0.044488594 = score(doc=1429,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39778042 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.010487288 = weight(_text_:der in 1429) [ClassicSimilarity], result of:
          0.010487288 = score(doc=1429,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.21373394 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.12689693 = weight(_text_:methodik in 1429) [ClassicSimilarity], result of:
          0.12689693 = score(doc=1429,freq=8.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.7989179 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.16836898 = weight(_text_:unterrichtsformen in 1429) [ClassicSimilarity], result of:
          0.16836898 = score(doc=1429,freq=4.0), product of:
            0.21757649 = queryWeight, product of:
              9.905128 = idf(docFreq=5, maxDocs=44218)
              0.021966046 = queryNorm
            0.7738381 = fieldWeight in 1429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.905128 = idf(docFreq=5, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.13516314 = weight(_text_:unterricht in 1429) [ClassicSimilarity], result of:
          0.13516314 = score(doc=1429,freq=8.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.8245286 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.079001 = weight(_text_:allgemeines in 1429) [ClassicSimilarity], result of:
          0.079001 = score(doc=1429,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.63036615 = fieldWeight in 1429, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.025982868 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.025982868 = score(doc=1429,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.53369546 = fieldWeight in 1429, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1429)
        0.020016951 = product of:
          0.040033903 = sum of:
            0.040033903 = weight(_text_:deutschland in 1429) [ClassicSimilarity], result of:
              0.040033903 = score(doc=1429,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.37734017 = fieldWeight in 1429, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1429)
          0.5 = coord(1/2)
      0.625 = coord(15/24)
    
    Abstract
    Dieses Praxishandbuch mit CD-ROM beschreibt, wie Projektleiter und Drehbuchautor in Teamarbeit ein Drehbuch erstellen, das lernpsychologischen Kriterien und der aktuellen Multimedia-Didaktik entspricht. Werkzeuge für das Konzipieren und Schreiben von Drehbüchern werden vorgestellt und evaluiert, sodass eine bedarfsgerechte Auswahl möglich wird. Das Handbuch ist angereichert mit Tipps für die Arbeitsorganisation und einem Abriss über das Berufsbild des Drehbuchautors. Im Anhang stehen zahlreiche Hilfsmittel bereit, z.B. eine Checkliste zur Prüfung eines fertiges Drehbuchs, eine Qualitätssicherungsmaßnahme, die Zeit und Kosten sparen hilft. Das direkt für den beruflichen Alltag geschriebene Handbuch zeigt mit praktisch anwendbaren Methoden und Arbeitshilfen sowie Tipps und Tricks, wie ein starkes Drehbuch entscheidend zur erfolgreichen Produktion von E-Learning beiträgt. Das Buch richtet sich an Projektleiter in Multimediaagenturen, Fachleute in Unternehmen sowie an (zukünftige) Drehbuchautoren.
    BK
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Classification
    DP 1960 Pädagogik / Didaktik und Methodik des Unterrichts / Spezielle Fragen der Methodik / Unterrichtsformen (allgemein) / Computerunterstützter Unterricht / Allgemeines und Deutschland
    AP 50600 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Film / Filmthemen und Drehbuch / Technik des Drehbuchschreibens
    81.68 / Computereinsatz in Unterricht und Ausbildung
    RVK
    DP 1960 Pädagogik / Didaktik und Methodik des Unterrichts / Spezielle Fragen der Methodik / Unterrichtsformen (allgemein) / Computerunterstützter Unterricht / Allgemeines und Deutschland
    AP 50600 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Film / Filmthemen und Drehbuch / Technik des Drehbuchschreibens
  2. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.23
    0.23258603 = product of:
      0.9303441 = sum of:
        0.058146507 = product of:
          0.17443952 = sum of:
            0.17443952 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.17443952 = score(doc=1826,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.25 = coord(6/24)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.21750894 = product of:
      0.5220215 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.08721976 = score(doc=4388,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.016118698 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4388,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.020081628 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.020081628 = score(doc=4388,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.41666666 = coord(10/24)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.19
    0.1860688 = product of:
      0.7442752 = sum of:
        0.046517204 = product of:
          0.13955161 = sum of:
            0.13955161 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.13955161 = score(doc=230,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.13955161 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.13955161 = score(doc=230,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.13955161 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.13955161 = score(doc=230,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.13955161 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.13955161 = score(doc=230,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.13955161 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.13955161 = score(doc=230,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.13955161 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.13955161 = score(doc=230,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.25 = coord(6/24)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  5. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.18
    0.1760465 = product of:
      0.38410145 = sum of:
        0.005916056 = product of:
          0.017748168 = sum of:
            0.017748168 = weight(_text_:p in 5000) [ClassicSimilarity], result of:
              0.017748168 = score(doc=5000,freq=4.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.22471954 = fieldWeight in 5000, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.33333334 = coord(1/3)
        0.055865552 = weight(_text_:didaktik in 5000) [ClassicSimilarity], result of:
          0.055865552 = score(doc=5000,freq=2.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            0.3352576 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.017842853 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.017842853 = score(doc=5000,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.050758775 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.050758775 = score(doc=5000,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.0074449074 = weight(_text_:des in 5000) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=5000,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.075287886 = weight(_text_:unterrichts in 5000) [ClassicSimilarity], result of:
          0.075287886 = score(doc=5000,freq=2.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.38919666 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.019971792 = weight(_text_:der in 5000) [ClassicSimilarity], result of:
          0.019971792 = score(doc=5000,freq=34.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40703082 = fieldWeight in 5000, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.050758775 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.050758775 = score(doc=5000,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.076459825 = weight(_text_:unterricht in 5000) [ClassicSimilarity], result of:
          0.076459825 = score(doc=5000,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 5000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.017842853 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.017842853 = score(doc=5000,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.005952192 = product of:
          0.011904384 = sum of:
            0.011904384 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.011904384 = score(doc=5000,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.5 = coord(1/2)
      0.45833334 = coord(11/24)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Content
    Vgl. auch: Häring, N. u. Hensinger, P.: "Digitale Bildung": Der abschüssige Weg zur Konditionierungsanstalt. Unter: http://norberthaering.de/de/27-german/news/1100-digitale-bildung [27.01.2019].
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  6. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.07
    0.06529307 = product of:
      0.22386198 = sum of:
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.018164515 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.018164515 = score(doc=3068,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 3068, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.0075077773 = product of:
          0.015015555 = sum of:
            0.015015555 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.015015555 = score(doc=3068,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.028308243 = product of:
          0.056616485 = sum of:
            0.056616485 = weight(_text_:deutschland in 3068) [ClassicSimilarity], result of:
              0.056616485 = score(doc=3068,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.53363955 = fieldWeight in 3068, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  7. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.05
    0.05150503 = product of:
      0.20602012 = sum of:
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.011167361 = weight(_text_:des in 4598) [ClassicSimilarity], result of:
          0.011167361 = score(doc=4598,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.017797519 = weight(_text_:der in 4598) [ClassicSimilarity], result of:
          0.017797519 = score(doc=4598,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 4598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
      0.25 = coord(6/24)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5382. https://doi.org/10.5282/o-bib/2018H4S181-192.
  8. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.05
    0.050309453 = product of:
      0.24148539 = sum of:
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.019375484 = weight(_text_:der in 2521) [ClassicSimilarity], result of:
          0.019375484 = score(doc=2521,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 2521, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.20833333 = coord(5/24)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  9. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.05
    0.046380866 = product of:
      0.18552347 = sum of:
        0.061534967 = product of:
          0.1846049 = sum of:
            0.1846049 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.1846049 = score(doc=31,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013487929 = score(doc=31,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.025789918 = weight(_text_:des in 31) [ClassicSimilarity], result of:
          0.025789918 = score(doc=31,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 31, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.009687742 = weight(_text_:der in 31) [ClassicSimilarity], result of:
          0.009687742 = score(doc=31,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.061534967 = product of:
          0.1846049 = sum of:
            0.1846049 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.1846049 = score(doc=31,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013487929 = score(doc=31,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
      0.25 = coord(6/24)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  10. Inhalte statt Geräte (2016) 0.04
    0.038530543 = product of:
      0.15412217 = sum of:
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.018760232 = weight(_text_:der in 759) [ClassicSimilarity], result of:
          0.018760232 = score(doc=759,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3823389 = fieldWeight in 759, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 759) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=759,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
        0.076459825 = weight(_text_:unterricht in 759) [ClassicSimilarity], result of:
          0.076459825 = score(doc=759,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.011323297 = product of:
          0.022646595 = sum of:
            0.022646595 = weight(_text_:deutschland in 759) [ClassicSimilarity], result of:
              0.022646595 = score(doc=759,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.21345583 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung.
    Content
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben."
    Date
    5.11.2022 18:29:47
    Issue
    [Presseinformation der Deutschen Mathematiker-Vereinigung vom 15.11.2016].
  11. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.04
    0.037455875 = product of:
      0.1498235 = sum of:
        0.019121325 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019121325 = score(doc=115,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.018425206 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.018425206 = score(doc=115,freq=16.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 115, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0658769 = weight(_text_:unterrichts in 115) [ClassicSimilarity], result of:
          0.0658769 = score(doc=115,freq=2.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.34054708 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.022023305 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.022023305 = score(doc=115,freq=54.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44884127 = fieldWeight in 115, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.005255444 = product of:
          0.010510888 = sum of:
            0.010510888 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.010510888 = score(doc=115,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.019121325 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019121325 = score(doc=115,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.25 = coord(6/24)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49
  12. Wikipedia : die freie Enzyklopädie (2005) 0.04
    0.03742026 = product of:
      0.12829804 = sum of:
        0.017152421 = weight(_text_:und in 44) [ClassicSimilarity], result of:
          0.017152421 = score(doc=44,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3523156 = fieldWeight in 44, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.00967122 = weight(_text_:des in 44) [ClassicSimilarity], result of:
          0.00967122 = score(doc=44,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15898573 = fieldWeight in 44, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.03223098 = weight(_text_:spezielle in 44) [ClassicSimilarity], result of:
          0.03223098 = score(doc=44,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.22053319 = fieldWeight in 44, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.01989823 = weight(_text_:der in 44) [ClassicSimilarity], result of:
          0.01989823 = score(doc=44,freq=60.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40553164 = fieldWeight in 44, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.023700299 = weight(_text_:allgemeines in 44) [ClassicSimilarity], result of:
          0.023700299 = score(doc=44,freq=2.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.18910983 = fieldWeight in 44, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.017152421 = weight(_text_:und in 44) [ClassicSimilarity], result of:
          0.017152421 = score(doc=44,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3523156 = fieldWeight in 44, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=44)
        0.0084924735 = product of:
          0.016984947 = sum of:
            0.016984947 = weight(_text_:deutschland in 44) [ClassicSimilarity], result of:
              0.016984947 = score(doc=44,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.16009188 = fieldWeight in 44, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=44)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Diese DVD-ROM enthält eine Momentaufnahme der deutschsprachigen Wikipedia (de.wikipedia.org), einer freien Internet-Enzyklopädie, an der von Mai 2001 bis heute mehrere tausend Menschen mitgearbeitet haben. Allein durch die Arbeit Freiwilliger sind so bereits über 200.000 Artikel entstanden (Stand: 3. März 2005).
    Content
    Unter den 200 Bänden der Digitalen Bibliothek sind bereits über 55 Lexika verlegt worden - mit dieser Wikipedia-DVD-ROM ist jedoch die bei weitem aktuellste und ungewöhnlichste Enzyklopädie erschienen. Die DVD-ROM-Edition basiert auf der deutschsprachigen Online-Enzyklopädie Wikipedia. Ihr Inhalt entspricht dem Stand der deutschsprachigen Wikipedia vom 3. März 2005, 00:00 Uhr und enthält damit über 200.000 Artikel. Das Konzept, einen bestimmten Redaktionsstand der ständig in Weiterbearbeitung begriffenen Online-Enzyklopädie festzuhalten und auf Datenträger zu bannen, wurde vom Verlag »Directmedia Publishing«, einigen aktiven Wikipedianern und dem Verein Wikimedia Deutschland - Gesellschaft zur Förderung Freien Wissens« entwickelt. Im Verlagsprogramm von Directmedia Publishing fehlte bislang ein allgemeines aktuelles Lexikon; und die Software der Digitalen Bibliothek eignet sich hervorragend für die Bewältigung größter Textmengen. Mit über 500.000 Bildschirmseiten ist dies gleichzeitig die bisher umfangreichste Ausgabe der digitalen Reihe. Für die Wikipedia ergibt sich mit einer Offline-Version die Möglichkeit, über das Internet hinaus Bekanntheit zu erlangen und neue Autoren zu gewinnen, die noch nicht oder nicht so sehr mit dem Internet und der Möglichkeit, eigene Inhalte dort zu veröffentlichen, vertraut sind. Das gemeinsame Projekt ist inhaltlich und technisch ein hochinteressantes Experiment. Da sich das Lexikon in manchen Dingen doch sehr von einer redaktionell betreuten Enzyklopädie unterscheidet, sind hier einige Hinweise zu Gestaltung und Handhabung nötig: Der Redaktionsstand wurde nicht beschönigt, d.h. bereits angelegte Artikel, zu denen nur wenig geschrieben wurde, oder offensichtlich noch mitten in der Bearbeitung stehende Artikel wurden so belassen. Für den Nutzer ergibt sich daraus immerhin der Hinweis, dass das angelegte Stichwort in der Online-Wikipedia vermutlich bereits weiter fortgeschritten ist. Zudem kann jeder Nutzer diese Artikel online ändern. So möchte diese DVD-ROM als Offline-Medium die Weiterbearbeitung der Inhalte nicht behindern, sondern vielmehr die Möglichkeit bieten, das bereits versammelte Wissen offline zu nutzen und trotzdem komfortabel zur Online-Wikipedia zu gelangen, um dort direkt Änderungen und Ergänzungen einzugeben. Deshalb können dieArtikel der Online-Wikipedia über das Kontextmenü der rechten Maustaste direkt angesprungen und verändert bzw. ergänzt werden. Dazu muss vorher eine Internetverbindung hergestellt werden. Nicht alle Bestandteile der Online-Wikipedia konnten vollständig übernommen werden; so musste beispielsweise aus Platzgründen eine relativ kleine Bildauswahl getroffen werden.
    Die Inhalte der Enzyklopädie sind frei und können von jedermann nach den Bestimmungen der GNU Freie Dokumentationslizenz genutzt, verändert und weiter verbreitet werden. »Als Enzyklopädie bezeichnet man den Versuch der vollständigen Darstellung des Wissens zu einem bestimmten Thema oder des gesamten Wissens der WeIt; ihr kennzeichnendes Merkmal gegenüber anderen Literaturgattungen ist der Universalitätsanspruch«. Aus dem Artikel »Enzyklöpädie«, Wikipedia vom 3. März 2005 Die Wikipedia ist der Versuch, eine völlig neue Art von Enzyklopädie zu erstellen. Sie wird nicht von einer handverlesenen Redaktion innerhalb der Mauern eines Verlagsgebäudes geschrieben, sondern entsteht in aller Öffentlichkeit; und jedermann ist herzlich eingeladen mitzuschreiben. Möglich macht dies ein so genanntes Wiki, eine spezielle Form von Redaktionssystem, das es jedermann erlaubt, die Inhalte der Website ohne technische Kenntnisse zu verändern. Mehrere tausend registrierte und anonyme Autoren auf der ganzen WeIt haben seit dem Start des Projektes im Jahr 2001 von diesem Angebot Gebrauch gemacht. Auf diese Art sind bereits über eine Million Artikel in mehr als 100 Sprachen entstanden. Und ein Ende ist nicht abzusehen: Rund um die Uhr arbeiten die freiwilligen, unbezahlten Autoren am weiteren Ausbau; sie verfassen Tag für Tag etwa 3.000 neue Artikel und verbessern bestehende. Kein Wikipedia-Artikel ist jemals fertig; alles ist »work in Progress«. Ständig ergänzen Autoren aktuelle Ereignisse und neue Entwicklungen und sind dabei oft sogar schneller als klassische Medien. Die Momentaufnahme auf dieser DVD teilt hingegen den Nachteil herkömmlicher Enzyklopädien: Sie spiegelt den Stand eines fixen Zeitpunktes wider, in diesem Fall den der Wikipedia am 3. März 2005. Eine weitere Besonderheit zeichnet die Wikipedia aus: Sie ist vollständig frei. Solange Sie die Autoren und die Quelle nennen, dürfen Sie sie frei kopieren, Freunden schenken, ausdrucken und verkaufen oder auch verändern. Dafür sorgt die »GNU Freie Dokumentationslizenz«, die ihren Ursprung in der Freie- Software-Bewegung hat und vergleichbar mit der Lizenz ist, der das Betriebssystem Linux seinen Erfolg verdankt.
  13. Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020) 0.04
    0.03584037 = product of:
      0.14336148 = sum of:
        0.020441556 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5847,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.018425206 = weight(_text_:des in 5847) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5847,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.04404146 = weight(_text_:fragen in 5847) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5847,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.011987969 = weight(_text_:der in 5847) [ClassicSimilarity], result of:
          0.011987969 = score(doc=5847,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.020441556 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5847,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.028023731 = product of:
          0.056047462 = sum of:
            0.056047462 = weight(_text_:deutschland in 5847) [ClassicSimilarity], result of:
              0.056047462 = score(doc=5847,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5282762 = fieldWeight in 5847, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5847)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
  14. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.03
    0.034580164 = product of:
      0.13832065 = sum of:
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015793033 = weight(_text_:des in 2248) [ClassicSimilarity], result of:
          0.015793033 = score(doc=2248,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 2248, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.016246837 = weight(_text_:der in 2248) [ClassicSimilarity], result of:
          0.016246837 = score(doc=2248,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 2248, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015604623 = product of:
          0.031209245 = sum of:
            0.031209245 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
              0.031209245 = score(doc=2248,freq=6.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.40390027 = fieldWeight in 2248, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.065897256 = sum of:
          0.048040684 = weight(_text_:deutschland in 2248) [ClassicSimilarity], result of:
            0.048040684 = score(doc=2248,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.4528082 = fieldWeight in 2248, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.017856576 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
            0.017856576 = score(doc=2248,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
      0.25 = coord(6/24)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Content
    https://www.o-bib.de/article/view/2017H4S22-29. DOI: https://doi.org/10.5282/o-bib/2017H4S22-29.
    Footnote
    Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  15. Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999) 0.03
    0.03318999 = product of:
      0.13275996 = sum of:
        0.012616802 = weight(_text_:und in 3315) [ClassicSimilarity], result of:
          0.012616802 = score(doc=3315,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 3315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.010528689 = weight(_text_:des in 3315) [ClassicSimilarity], result of:
          0.010528689 = score(doc=3315,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.17308173 = fieldWeight in 3315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.014531613 = weight(_text_:der in 3315) [ClassicSimilarity], result of:
          0.014531613 = score(doc=3315,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 3315, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 3315) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=3315,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 3315, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3315)
          0.5 = coord(1/2)
        0.076459825 = weight(_text_:unterricht in 3315) [ClassicSimilarity], result of:
          0.076459825 = score(doc=3315,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 3315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
        0.012616802 = weight(_text_:und in 3315) [ClassicSimilarity], result of:
          0.012616802 = score(doc=3315,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.25915268 = fieldWeight in 3315, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3315)
      0.25 = coord(6/24)
    
    Abstract
    Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
    BK
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Classification
    81.68 / Computereinsatz in Unterricht und Ausbildung
    Content
    Immer öfter verlieren wir die Orientierung im Meer des Wißbaren. Die 256 Begriffe, in denen Artur Schmidts Wissensnavigator die wesentlichen Technologien, Managementgrundlagen, Lebensperspektiven und Werterhaltungen unserer Zeit zusammenfaßt, haben zum Ziel, uns auf Kurs in Richtung Zukunft zu bringen. Artikel zu den wichtigsten neuen Wissensgebieten und Technologien beiten dem Leser einen 'Leitfaden', der durch die Einzeldisziplinen hindurchführt und sie zusammenführt, um daraus eine Perspektive für die Welt von morgen zu entwickeln. Mit Hilfe der beigefügten CD kann das Lexikon der Zukunft auf dem Internet frei schwimmen, ohne dabei seine eigentliche Funktion zu verlieren - eine geistige Landkarte zur Verfügung zu stellen, mit deren Hilfe such zielführend und erfolgreich in Wissensnetzen navigieren läßt
    Date
    25. 2.2008 19:29:40
  16. Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020) 0.03
    0.033121105 = product of:
      0.13248442 = sum of:
        0.025790704 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.025790704 = score(doc=27,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.011167361 = weight(_text_:des in 27) [ClassicSimilarity], result of:
          0.011167361 = score(doc=27,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.037749823 = weight(_text_:fragen in 27) [ClassicSimilarity], result of:
          0.037749823 = score(doc=27,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.022976499 = weight(_text_:der in 27) [ClassicSimilarity], result of:
          0.022976499 = score(doc=27,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46826762 = fieldWeight in 27, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 27) [ClassicSimilarity], result of:
              0.018018665 = score(doc=27,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 27, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=27)
          0.5 = coord(1/2)
        0.025790704 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.025790704 = score(doc=27,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
      0.25 = coord(6/24)
    
    Abstract
    Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
    Content
    Vgl. auch: https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki. Vgl. auch: https://www.tabea-roessner.de/2020/10/28/der-abschlussbericht-der-enquete-kommission-ki-ist-da/.
    Date
    6.11.2020 10:29:02
  17. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.03
    0.032786824 = product of:
      0.15737675 = sum of:
        0.020441556 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.020441556 = score(doc=252,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.04404146 = weight(_text_:fragen in 252) [ClassicSimilarity], result of:
          0.04404146 = score(doc=252,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.011987969 = weight(_text_:der in 252) [ClassicSimilarity], result of:
          0.011987969 = score(doc=252,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 252, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.020441556 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.020441556 = score(doc=252,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 252) [ClassicSimilarity], result of:
            0.03963154 = score(doc=252,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
          0.020832673 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
            0.020832673 = score(doc=252,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
      0.20833333 = coord(5/24)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05
  18. Bundesregierung: Digitale Bildung voranbringen (2016) 0.03
    0.032285646 = product of:
      0.15497111 = sum of:
        0.020441556 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.020441556 = score(doc=3451,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.016953548 = weight(_text_:der in 3451) [ClassicSimilarity], result of:
          0.016953548 = score(doc=3451,freq=32.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 3451, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.06690235 = weight(_text_:unterricht in 3451) [ClassicSimilarity], result of:
          0.06690235 = score(doc=3451,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.40812084 = fieldWeight in 3451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.020441556 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.020441556 = score(doc=3451,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.030232107 = sum of:
          0.01981577 = weight(_text_:deutschland in 3451) [ClassicSimilarity], result of:
            0.01981577 = score(doc=3451,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.18677385 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
          0.010416336 = weight(_text_:22 in 3451) [ClassicSimilarity], result of:
            0.010416336 = score(doc=3451,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.1354154 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
      0.20833333 = coord(5/24)
    
    Abstract
    Webseite zum Nationalen IT-Bildungsgipfel am 16./17.11.2016 in Saarbrücken: ""Lernen und Handeln in der digitalen Welt prägen unseren Alltag", so Bundeskanzlerin Merkel auf dem IT-Gipfel in Saarbrücken. Deshalb müsse digitale Bildung auch allen zugänglich sein. Sie appellierte an Schüler und Lehrer, neuen Entwicklungen offen und neugierig gegenüber zu stehen."
    Content
    Vgl.dazu die Presseinformation der Deutschen Mathematiker Vereinigung: "*Inhalte statt Geräte* Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung./
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben." (https://dmv.mathematik.de/index.php/aktuell-presse/presseinformationen)
    Vgl. auch das Interview von Nicole Köster mit Gerald Lembke zum Thema Digitale Medien und Digitale Bildung unter: http://www.swr.de/swr1/bw/programm/leute/wirtschaftswissenschaftler-und-experte-fuer-digitale-medien-gerald-lembke/-/id=1895042/did=19052140/nid=1895042/1izaxt1/index.html.
    Date
    22. 2.2017 17:14:47
  19. Koch, M.: ¬Das Wissen der Welt : vor 300 Jahren wurde der Mathematiker und Enzyklopädist Jean-Baptiste le Rond d'Alembert geboren (2017) 0.03
    0.03175096 = product of:
      0.12700383 = sum of:
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.016118698 = weight(_text_:des in 4688) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4688,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4688, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.025688507 = weight(_text_:der in 4688) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4688,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4688, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.0395005 = weight(_text_:allgemeines in 4688) [ClassicSimilarity], result of:
          0.0395005 = score(doc=4688,freq=2.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.31518307 = fieldWeight in 4688, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 4688) [ClassicSimilarity], result of:
              0.028308243 = score(doc=4688,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 4688, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4688)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Bis heute findet sich der Name des französischen Gelehrten und Mathematikers Jean-Baptiste le Rond d'Alembert in vielen Geschichtsbüchern. Das hat vor allem einen Grund: Gemeinsam mit dem Philosophen Denis Diderot gab d'Alembert eines der wichtigsten Werke der Aufklärung heraus. Dessen etwas ausladender Titel lautet: »Enzyklopädie oder ein durchdachtes Wörterbuch der Wissenschaften, Künste und Handwerke«. Ziel der Herausgeber war es, »ein allgemeines Bild der Anstrengungen des menschlichen Geistes auf allen Gebieten und in allen Jahrhunderten zu entwerfen«. An der Abfassung der mehr als 70 000 Enzyklopädie-Artikel beteiligte sich fast die gesamte geistige Elite Frankreichs, darunter Jean-Jacques Rousseau, Voltaire und Montesquieu. Der erste Band erschien 1751 und enthielt ein viel beachtetes Vorwort von d'Alembert, der gelegentlich erklärte: Das Wissen der Menschheit stamme nicht von einem Monarchen oder aus Rom, sondern vom individuellen Sinn und Verstand. Erwartungsgemäß stand der französische König Ludwig XV. dem Werk ebenso ablehnend gegenüber wie Papst Clemens XIII., der die Enzyklopädie 1759 auf den Index der verbotenen Bücher setzen ließ. Doch alle Versuche, den Fortgang des Projekts zu verhindern, scheiterten. Zuletzt umfasste das aufklärerische Mammutwerk 35 Bände; den Schluss bildete 1780 ein zweibändiges Register.
    Source
    Neues Deutschland. 2017, S.26 [https://www.neues-deutschland.de/artikel/1069694.das-wissen-der-welt.html]
    Theme
    Geschichte der Klassifikationssysteme
  20. Fuchs, C.; Pampel, H.; Vierkant, P.: ORCID in Deutschland : Ergebnisse einer Bestandsaufnahme im Jahr 2016 (2017) 0.03
    0.030245189 = product of:
      0.120980754 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 3857) [ClassicSimilarity], result of:
              0.018824775 = score(doc=3857,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 3857, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.33333334 = coord(1/3)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.022334723 = weight(_text_:des in 3857) [ClassicSimilarity], result of:
          0.022334723 = score(doc=3857,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 3857, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.020550804 = weight(_text_:der in 3857) [ClassicSimilarity], result of:
          0.020550804 = score(doc=3857,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4188313 = fieldWeight in 3857, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.033969894 = product of:
          0.06793979 = sum of:
            0.06793979 = weight(_text_:deutschland in 3857) [ClassicSimilarity], result of:
              0.06793979 = score(doc=3857,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.6403675 = fieldWeight in 3857, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Open Researcher and Contributor ID, kurz ORCID, ist eine eindeutige Kennung für Forscherinnen und Forscher und ermöglicht die Verbindung zwischen Wissenschaftlerinnen und Wissenschaftlern mit ihren Aufsätzen, Forschungsdaten und weiteren Produkten des wissenschaftlichen Schaffens. Im Rahmen des dreijährigen DFG-Projektes "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" wird die vielerorts erwogene Implementierung der ORCID an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert. Der vorliegende Beitrag bietet einen umfassenden Überblick über die Ergebnisse der im Rahmen des Projekts durchgeführten Umfrage zum Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland. Die Umfrage wurde im Zeitraum vom 13.07.2016 bis 03.08.2016 durchgeführt und bietet zahlreiche Erkenntnisse sowohl über den Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland als auch über bestehende technische, rechtliche und organisatorische Hürden bei der Implementierung des Dienstes.
    Content
    https://www.o-bib.de/article/view/2017H2S35-55. DOI: https://doi.org/10.5282/o-bib/2017H2S35-55. Vgl. auch das Positionspapier "Autorenidentifikation anhand der Open Researcher and Contributor ID" unter: https://doi.org/10.18452/19528.

Years

Languages

  • d 995
  • e 419
  • a 12
  • m 3
  • el 2
  • f 2
  • i 1
  • nl 1
  • no 1
  • s 1
  • More… Less…

Types

  • a 626
  • i 116
  • p 34
  • m 30
  • r 25
  • b 23
  • x 20
  • n 11
  • s 10
  • l 3
  • More… Less…

Themes

Subjects

Classifications