Search (515 results, page 1 of 26)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.23
    0.23258603 = product of:
      0.9303441 = sum of:
        0.058146507 = product of:
          0.17443952 = sum of:
            0.17443952 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.17443952 = score(doc=1826,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17443952 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17443952 = score(doc=1826,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.25 = coord(6/24)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.21750894 = product of:
      0.5220215 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.08721976 = score(doc=4388,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.016118698 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4388,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.020081628 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.020081628 = score(doc=4388,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.41666666 = coord(10/24)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.18
    0.1760465 = product of:
      0.38410145 = sum of:
        0.005916056 = product of:
          0.017748168 = sum of:
            0.017748168 = weight(_text_:p in 5000) [ClassicSimilarity], result of:
              0.017748168 = score(doc=5000,freq=4.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.22471954 = fieldWeight in 5000, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.33333334 = coord(1/3)
        0.055865552 = weight(_text_:didaktik in 5000) [ClassicSimilarity], result of:
          0.055865552 = score(doc=5000,freq=2.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            0.3352576 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.017842853 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.017842853 = score(doc=5000,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.050758775 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.050758775 = score(doc=5000,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.0074449074 = weight(_text_:des in 5000) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=5000,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.075287886 = weight(_text_:unterrichts in 5000) [ClassicSimilarity], result of:
          0.075287886 = score(doc=5000,freq=2.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.38919666 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.019971792 = weight(_text_:der in 5000) [ClassicSimilarity], result of:
          0.019971792 = score(doc=5000,freq=34.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40703082 = fieldWeight in 5000, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.050758775 = weight(_text_:methodik in 5000) [ClassicSimilarity], result of:
          0.050758775 = score(doc=5000,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.31956714 = fieldWeight in 5000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.076459825 = weight(_text_:unterricht in 5000) [ClassicSimilarity], result of:
          0.076459825 = score(doc=5000,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 5000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.017842853 = weight(_text_:und in 5000) [ClassicSimilarity], result of:
          0.017842853 = score(doc=5000,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 5000, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.005952192 = product of:
          0.011904384 = sum of:
            0.011904384 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.011904384 = score(doc=5000,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.5 = coord(1/2)
      0.45833334 = coord(11/24)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Content
    Vgl. auch: Häring, N. u. Hensinger, P.: "Digitale Bildung": Der abschüssige Weg zur Konditionierungsanstalt. Unter: http://norberthaering.de/de/27-german/news/1100-digitale-bildung [27.01.2019].
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  4. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.07
    0.06529307 = product of:
      0.22386198 = sum of:
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.018164515 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.018164515 = score(doc=3068,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 3068, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.0075077773 = product of:
          0.015015555 = sum of:
            0.015015555 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.015015555 = score(doc=3068,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.028308243 = product of:
          0.056616485 = sum of:
            0.056616485 = weight(_text_:deutschland in 3068) [ClassicSimilarity], result of:
              0.056616485 = score(doc=3068,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.53363955 = fieldWeight in 3068, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  5. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.05
    0.05150503 = product of:
      0.20602012 = sum of:
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.011167361 = weight(_text_:des in 4598) [ClassicSimilarity], result of:
          0.011167361 = score(doc=4598,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.017797519 = weight(_text_:der in 4598) [ClassicSimilarity], result of:
          0.017797519 = score(doc=4598,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 4598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
      0.25 = coord(6/24)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5382. https://doi.org/10.5282/o-bib/2018H4S181-192.
  6. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.05
    0.050309453 = product of:
      0.24148539 = sum of:
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.019375484 = weight(_text_:der in 2521) [ClassicSimilarity], result of:
          0.019375484 = score(doc=2521,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 2521, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.10151755 = weight(_text_:methodik in 2521) [ClassicSimilarity], result of:
          0.10151755 = score(doc=2521,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.6391343 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
        0.009537406 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.009537406 = score(doc=2521,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.20833333 = coord(5/24)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  7. Inhalte statt Geräte (2016) 0.04
    0.038530543 = product of:
      0.15412217 = sum of:
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.018760232 = weight(_text_:der in 759) [ClassicSimilarity], result of:
          0.018760232 = score(doc=759,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3823389 = fieldWeight in 759, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 759) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=759,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
        0.076459825 = weight(_text_:unterricht in 759) [ClassicSimilarity], result of:
          0.076459825 = score(doc=759,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.4664238 = fieldWeight in 759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.020786293 = weight(_text_:und in 759) [ClassicSimilarity], result of:
          0.020786293 = score(doc=759,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42695636 = fieldWeight in 759, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=759)
        0.011323297 = product of:
          0.022646595 = sum of:
            0.022646595 = weight(_text_:deutschland in 759) [ClassicSimilarity], result of:
              0.022646595 = score(doc=759,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.21345583 = fieldWeight in 759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=759)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung.
    Content
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben."
    Date
    5.11.2022 18:29:47
    Issue
    [Presseinformation der Deutschen Mathematiker-Vereinigung vom 15.11.2016].
  8. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.03
    0.034580164 = product of:
      0.13832065 = sum of:
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015793033 = weight(_text_:des in 2248) [ClassicSimilarity], result of:
          0.015793033 = score(doc=2248,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 2248, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.016246837 = weight(_text_:der in 2248) [ClassicSimilarity], result of:
          0.016246837 = score(doc=2248,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 2248, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.015604623 = product of:
          0.031209245 = sum of:
            0.031209245 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
              0.031209245 = score(doc=2248,freq=6.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.40390027 = fieldWeight in 2248, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
        0.012389454 = weight(_text_:und in 2248) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2248,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.065897256 = sum of:
          0.048040684 = weight(_text_:deutschland in 2248) [ClassicSimilarity], result of:
            0.048040684 = score(doc=2248,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.4528082 = fieldWeight in 2248, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.017856576 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
            0.017856576 = score(doc=2248,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
      0.25 = coord(6/24)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Content
    https://www.o-bib.de/article/view/2017H4S22-29. DOI: https://doi.org/10.5282/o-bib/2017H4S22-29.
    Footnote
    Vortrag anlässlich des Bibliothekartages 2017 in Frankfurt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  9. Bundesregierung: Digitale Bildung voranbringen (2016) 0.03
    0.032285646 = product of:
      0.15497111 = sum of:
        0.020441556 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.020441556 = score(doc=3451,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.016953548 = weight(_text_:der in 3451) [ClassicSimilarity], result of:
          0.016953548 = score(doc=3451,freq=32.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 3451, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.06690235 = weight(_text_:unterricht in 3451) [ClassicSimilarity], result of:
          0.06690235 = score(doc=3451,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.40812084 = fieldWeight in 3451, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.020441556 = weight(_text_:und in 3451) [ClassicSimilarity], result of:
          0.020441556 = score(doc=3451,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 3451, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.030232107 = sum of:
          0.01981577 = weight(_text_:deutschland in 3451) [ClassicSimilarity], result of:
            0.01981577 = score(doc=3451,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.18677385 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
          0.010416336 = weight(_text_:22 in 3451) [ClassicSimilarity], result of:
            0.010416336 = score(doc=3451,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.1354154 = fieldWeight in 3451, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.02734375 = fieldNorm(doc=3451)
      0.20833333 = coord(5/24)
    
    Abstract
    Webseite zum Nationalen IT-Bildungsgipfel am 16./17.11.2016 in Saarbrücken: ""Lernen und Handeln in der digitalen Welt prägen unseren Alltag", so Bundeskanzlerin Merkel auf dem IT-Gipfel in Saarbrücken. Deshalb müsse digitale Bildung auch allen zugänglich sein. Sie appellierte an Schüler und Lehrer, neuen Entwicklungen offen und neugierig gegenüber zu stehen."
    Content
    Vgl.dazu die Presseinformation der Deutschen Mathematiker Vereinigung: "*Inhalte statt Geräte* Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung./
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben." (https://dmv.mathematik.de/index.php/aktuell-presse/presseinformationen)
    Vgl. auch das Interview von Nicole Köster mit Gerald Lembke zum Thema Digitale Medien und Digitale Bildung unter: http://www.swr.de/swr1/bw/programm/leute/wirtschaftswissenschaftler-und-experte-fuer-digitale-medien-gerald-lembke/-/id=1895042/did=19052140/nid=1895042/1izaxt1/index.html.
    Date
    22. 2.2017 17:14:47
  10. Koch, M.: ¬Das Wissen der Welt : vor 300 Jahren wurde der Mathematiker und Enzyklopädist Jean-Baptiste le Rond d'Alembert geboren (2017) 0.03
    0.03175096 = product of:
      0.12700383 = sum of:
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.016118698 = weight(_text_:des in 4688) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4688,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4688, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.025688507 = weight(_text_:der in 4688) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4688,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4688, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.0395005 = weight(_text_:allgemeines in 4688) [ClassicSimilarity], result of:
          0.0395005 = score(doc=4688,freq=2.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.31518307 = fieldWeight in 4688, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.015771002 = weight(_text_:und in 4688) [ClassicSimilarity], result of:
          0.015771002 = score(doc=4688,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 4688, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4688)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 4688) [ClassicSimilarity], result of:
              0.028308243 = score(doc=4688,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 4688, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4688)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Bis heute findet sich der Name des französischen Gelehrten und Mathematikers Jean-Baptiste le Rond d'Alembert in vielen Geschichtsbüchern. Das hat vor allem einen Grund: Gemeinsam mit dem Philosophen Denis Diderot gab d'Alembert eines der wichtigsten Werke der Aufklärung heraus. Dessen etwas ausladender Titel lautet: »Enzyklopädie oder ein durchdachtes Wörterbuch der Wissenschaften, Künste und Handwerke«. Ziel der Herausgeber war es, »ein allgemeines Bild der Anstrengungen des menschlichen Geistes auf allen Gebieten und in allen Jahrhunderten zu entwerfen«. An der Abfassung der mehr als 70 000 Enzyklopädie-Artikel beteiligte sich fast die gesamte geistige Elite Frankreichs, darunter Jean-Jacques Rousseau, Voltaire und Montesquieu. Der erste Band erschien 1751 und enthielt ein viel beachtetes Vorwort von d'Alembert, der gelegentlich erklärte: Das Wissen der Menschheit stamme nicht von einem Monarchen oder aus Rom, sondern vom individuellen Sinn und Verstand. Erwartungsgemäß stand der französische König Ludwig XV. dem Werk ebenso ablehnend gegenüber wie Papst Clemens XIII., der die Enzyklopädie 1759 auf den Index der verbotenen Bücher setzen ließ. Doch alle Versuche, den Fortgang des Projekts zu verhindern, scheiterten. Zuletzt umfasste das aufklärerische Mammutwerk 35 Bände; den Schluss bildete 1780 ein zweibändiges Register.
    Source
    Neues Deutschland. 2017, S.26 [https://www.neues-deutschland.de/artikel/1069694.das-wissen-der-welt.html]
    Theme
    Geschichte der Klassifikationssysteme
  11. Fuchs, C.; Pampel, H.; Vierkant, P.: ORCID in Deutschland : Ergebnisse einer Bestandsaufnahme im Jahr 2016 (2017) 0.03
    0.030245189 = product of:
      0.120980754 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 3857) [ClassicSimilarity], result of:
              0.018824775 = score(doc=3857,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 3857, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.33333334 = coord(1/3)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.022334723 = weight(_text_:des in 3857) [ClassicSimilarity], result of:
          0.022334723 = score(doc=3857,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 3857, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.020550804 = weight(_text_:der in 3857) [ClassicSimilarity], result of:
          0.020550804 = score(doc=3857,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4188313 = fieldWeight in 3857, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.018925203 = weight(_text_:und in 3857) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3857,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3857, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3857)
        0.033969894 = product of:
          0.06793979 = sum of:
            0.06793979 = weight(_text_:deutschland in 3857) [ClassicSimilarity], result of:
              0.06793979 = score(doc=3857,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.6403675 = fieldWeight in 3857, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3857)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Open Researcher and Contributor ID, kurz ORCID, ist eine eindeutige Kennung für Forscherinnen und Forscher und ermöglicht die Verbindung zwischen Wissenschaftlerinnen und Wissenschaftlern mit ihren Aufsätzen, Forschungsdaten und weiteren Produkten des wissenschaftlichen Schaffens. Im Rahmen des dreijährigen DFG-Projektes "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" wird die vielerorts erwogene Implementierung der ORCID an Hochschulen und außeruniversitären Forschungseinrichtungen gefördert. Der vorliegende Beitrag bietet einen umfassenden Überblick über die Ergebnisse der im Rahmen des Projekts durchgeführten Umfrage zum Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland. Die Umfrage wurde im Zeitraum vom 13.07.2016 bis 03.08.2016 durchgeführt und bietet zahlreiche Erkenntnisse sowohl über den Stand der Implementierung von ORCID an wissenschaftlichen Einrichtungen in Deutschland als auch über bestehende technische, rechtliche und organisatorische Hürden bei der Implementierung des Dienstes.
    Content
    https://www.o-bib.de/article/view/2017H2S35-55. DOI: https://doi.org/10.5282/o-bib/2017H2S35-55. Vgl. auch das Positionspapier "Autorenidentifikation anhand der Open Researcher and Contributor ID" unter: https://doi.org/10.18452/19528.
  12. Häring, N.; Hensinger, P.: "Digitale Bildung" : Der abschüssige Weg zur Konditionierungsanstalt (2019) 0.03
    0.029511197 = product of:
      0.14165375 = sum of:
        0.010458209 = product of:
          0.031374626 = sum of:
            0.031374626 = weight(_text_:p in 4999) [ClassicSimilarity], result of:
              0.031374626 = score(doc=4999,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.39725178 = fieldWeight in 4999, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4999)
          0.33333334 = coord(1/3)
        0.011921758 = weight(_text_:und in 4999) [ClassicSimilarity], result of:
          0.011921758 = score(doc=4999,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 4999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4999)
        0.020974576 = weight(_text_:der in 4999) [ClassicSimilarity], result of:
          0.020974576 = score(doc=4999,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 4999, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4999)
        0.011921758 = weight(_text_:und in 4999) [ClassicSimilarity], result of:
          0.011921758 = score(doc=4999,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 4999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4999)
        0.08637744 = sum of:
          0.056616485 = weight(_text_:deutschland in 4999) [ClassicSimilarity], result of:
            0.056616485 = score(doc=4999,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.53363955 = fieldWeight in 4999, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.078125 = fieldNorm(doc=4999)
          0.02976096 = weight(_text_:22 in 4999) [ClassicSimilarity], result of:
            0.02976096 = score(doc=4999,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.38690117 = fieldWeight in 4999, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=4999)
      0.20833333 = coord(5/24)
    
    Abstract
    Uns wird erzählt. Deutschland habe großen Nachholbedarf bei der Digitalisierung der Schulen. In einem sehr pointierten Gastbeitrag macht Peter Hensinger deutlich, das es keine Belege für bessere Lernerfolge durch Digitalisierung gibt, sondern das Gegenteil, und dass es letztlich darum geht, optimal konditioniertes Menschenmaterial hervorzubringen.
    Date
    22. 2.2019 11:45:19
  13. Saitta, E.: Algorithmische Ausnahmezustände : wie könnte eine aufständische Staatsbürgerschaft aussehen? (2017) 0.03
    0.027791122 = product of:
      0.13339739 = sum of:
        0.018660503 = weight(_text_:und in 3985) [ClassicSimilarity], result of:
          0.018660503 = score(doc=3985,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 3985, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.013028587 = weight(_text_:des in 3985) [ClassicSimilarity], result of:
          0.013028587 = score(doc=3985,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 3985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.06228403 = weight(_text_:fragen in 3985) [ClassicSimilarity], result of:
          0.06228403 = score(doc=3985,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.5568926 = fieldWeight in 3985, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.020763772 = weight(_text_:der in 3985) [ClassicSimilarity], result of:
          0.020763772 = score(doc=3985,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 3985, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
        0.018660503 = weight(_text_:und in 3985) [ClassicSimilarity], result of:
          0.018660503 = score(doc=3985,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 3985, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3985)
      0.20833333 = coord(5/24)
    
    Abstract
    Das Netz ist kein Raum, der jenseits der Machtpolitiken von Nationalstaaten existiert: Leben und Internet sind heute untrennbar miteinander verknüpft. Welche Auswirkungen hat das auf das Konzept der Staatsbürgerschaft, auf die Rolle von politischen Akteuren und Formen des Widerstands? Die IT-Sicherheitsexpertin und politische Theoretikerin Eleanor Saitta, die zu diesen Fragen bei Berliner Gazette-Jahreskonferenz FRIENDLY FIRE einen Vortrag, unternimmt hier eine Bestandsaufnahme. Ein Interview.
    Content
    Eleanor Saitta sprach am 2.11.2017 auf dem Eröffnungs-Panel der Berliner-Gazette-Jahreskonferenz FRIENDLY FIRE. Eine Dokumentation der Konferenz kann hier abgerufen werden. Die Interview-Fragen oben stellte die Berliner Gazette-Redaktion. Übersetzung aus dem Englischen: Edward Viesel.
    Source
    Berliner Gazette: Kultur, Politik und Digitales. Vom 22.11.2017 [https://berlinergazette.de/politik-macht-und-widerstand-in-der-post-snowden-welt/]
  14. Strecker, D.: Nutzung der Schattenbibliothek Sci-Hub in Deutschland (2019) 0.03
    0.027260724 = product of:
      0.13085148 = sum of:
        0.015994716 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.015994716 = score(doc=596,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 596, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=596)
        0.011167361 = weight(_text_:des in 596) [ClassicSimilarity], result of:
          0.011167361 = score(doc=596,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 596, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=596)
        0.021797419 = weight(_text_:der in 596) [ClassicSimilarity], result of:
          0.021797419 = score(doc=596,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44423765 = fieldWeight in 596, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=596)
        0.015994716 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.015994716 = score(doc=596,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 596, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=596)
        0.065897256 = sum of:
          0.048040684 = weight(_text_:deutschland in 596) [ClassicSimilarity], result of:
            0.048040684 = score(doc=596,freq=4.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.4528082 = fieldWeight in 596, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
          0.017856576 = weight(_text_:22 in 596) [ClassicSimilarity], result of:
            0.017856576 = score(doc=596,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.23214069 = fieldWeight in 596, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=596)
      0.20833333 = coord(5/24)
    
    Abstract
    Anfang der 2000er Jahre entstanden in Reaktion auf unzureichende Zugangswege zu Fachliteratur und ausgelöst durch steigende Subskriptionsgebühren wissenschaftlicher Zeitschriften erste illegale Dokumentensammlungen, sogenannte Schattenbibliotheken. Schattenbibliotheken sind Internetdienste, die ohne Zustimmung der RechteinhaberInnen Datenbanken mit wissenschaftlichen Volltexten erstellen, betreiben und allen Interessierten dadurch den Zugriff auf wissenschaftliche Literatur ermöglichen. Zu den meistgenutzten Schattenbibliotheken zählt Sci-Hub. Der Dienst wurde 2011 von Alexandra Elbakyan entwickelt und umfasste zum Zeitpunkt der Untersuchung mehr als 74 Millionen Dokumente. Die Akzeptanz dieser Dienste unter Forschenden und anderen Personengruppen, verschwimmende Grenzen in der öffentlichen Wahrnehmung zu Open Access sowie mögliche Konsequenzen für bestehende legale Zugänge zu Fachliteratur beschäftigen nicht nur InformationswissenschaftlerInnen weltweit. In diesem Beitrag wird die Rolle des Phänomens Schattenbibliothek bei der wissenschaftlichen Informationsversorgung in Deutschland untersucht, insbesondere im Hinblick auf regionale Verteilungen von Downloads, Zugriffszeiten, Zusammenhängen zwischen der Größe bestimmter Personengruppen (Bevölkerungszahl, Anzahl wissenschaftlicher Mitarbeitender an Hochschulen) und den Downloadzahlen eines Bundeslands sowie den Eigenschaften der angefragten Dokumente (Themen, Verlage, Publikationsalter beim Zugriff).
    Date
    1. 1.2020 13:22:34
  15. Hermsdorf, D.: Zweifel an Franz Hörmanns "Informationsgeld" : https://www.heise.de/tp/features/Zweifel-an-Franz-Hoermanns-Informationsgeld-3730411.html. (2017) 0.03
    0.026937742 = product of:
      0.12930116 = sum of:
        0.016690461 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.016690461 = score(doc=3675,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 3675, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3675)
        0.013028587 = weight(_text_:des in 3675) [ClassicSimilarity], result of:
          0.013028587 = score(doc=3675,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 3675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3675)
        0.022427438 = weight(_text_:der in 3675) [ClassicSimilarity], result of:
          0.022427438 = score(doc=3675,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4570776 = fieldWeight in 3675, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3675)
        0.016690461 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.016690461 = score(doc=3675,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 3675, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3675)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 3675) [ClassicSimilarity], result of:
            0.03963154 = score(doc=3675,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3675)
          0.020832673 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
            0.020832673 = score(doc=3675,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 3675, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3675)
      0.20833333 = coord(5/24)
    
    Abstract
    Systematische Alternativen zu Zinssystem, Giralgeld und Zentralbanken wurden in der Folgezeit der Marxschen Theorie des Kapitals mehrfach durchdacht. In Deutschland war es zuletzt wohl die AG Geldordnung und Finanzpolitik der Piratenpartei, in der die meisten Teilnehmer zum fundierteren Nachdenken über Geld ermuntert wurden. Hinzu kommen vielerlei Websites und Internet-Videos, in denen sich das Konkurrenzangebot zu den durch Finanzkrisen in Misskredit geratenen universitären Wirtschaftslehren entfaltet. Zu den bekannteren Experten, die auf diesen neuen Bühnen auftreten, gehört Franz Hörmann, Professor an der Universität Wien. Neuerdings firmiert er als finanzpolitischer Sprecher der jungen Partei "Deutsche Mitte" (DM), die der ehemalige ARD-Journalist und Politikberater Christoph Hörstel ins Leben rief. Hier steht Hörmanns Lehre im Kontext einer vehementen politischen Gegnerschaft zum globalen "Finanzkartell".
    Date
    20. 6.2017 11:55:22
  16. Digitale Zukunft: Lernen. Forschen. Wissen : Die Digitalstrategie des BMBF (2019) 0.03
    0.026193459 = product of:
      0.104773834 = sum of:
        0.019661864 = weight(_text_:und in 5375) [ClassicSimilarity], result of:
          0.019661864 = score(doc=5375,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 5375, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.012894959 = weight(_text_:des in 5375) [ClassicSimilarity], result of:
          0.012894959 = score(doc=5375,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21198097 = fieldWeight in 5375, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.025166549 = weight(_text_:fragen in 5375) [ClassicSimilarity], result of:
          0.025166549 = score(doc=5375,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 5375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.016065303 = weight(_text_:der in 5375) [ClassicSimilarity], result of:
          0.016065303 = score(doc=5375,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.32741547 = fieldWeight in 5375, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.019661864 = weight(_text_:und in 5375) [ClassicSimilarity], result of:
          0.019661864 = score(doc=5375,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 5375, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.011323297 = product of:
          0.022646595 = sum of:
            0.022646595 = weight(_text_:deutschland in 5375) [ClassicSimilarity], result of:
              0.022646595 = score(doc=5375,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.21345583 = fieldWeight in 5375, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5375)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Digitalisierung so gestalten, dass sie den Menschen dient - das ist Ziel unserer Digitalisierungsstrategie.Wie können wir uns die Bildung der Zukunft vorstellen? Ich denke an Leh-rer, die Kinder in der ersten Schulstunde in den Wald mitnehmen, um Käfer zu sammeln; die ihnen in der zweiten Stunde das Insektensterben erläutern, unterstützt durch Bilder und Grafiken am Smartboard; und die in der dritten Stunde mit Lernprogrammen überprüfen, was jedes einzelne Kind verstanden hat und wo noch einmal nachgehakt werden muss. Wie können wir uns die Medizin der Zukunft vorstellen? Ich denke an die Ärztin, die sich Zeit für ihre Patienten nimmt; die Untersuchungsergebnisse in den Computer eingibt, der sie mit anderen Fällen vergleicht und daraus Rückschlüsse zieht; die Künstliche Intelli-genz nutzt, um die individuell auf den einzelnen Patienten zugeschnittene Therapie zu finden; und die sie mit dem Patienten bespricht und abstimmt.Wie können wir uns die Mobilität der Zukunft vorstellen? Ich denke an die ältere Dame, die per Smartphone das autonom fahrende Auto vor ihr Haus auf dem Land bestellt; die damit zum Bahnhof fährt; die dann den Zug in die Großstadt nimmt, um schließlich mit dem Flugtaxi direkt vor die Haustür ihres Enkels zu fliegen. In meiner Zukunftsvision verbessern digitale Technologien und Möglichkeiten unser Leben. Zugleich stehen wir vor großen Herausforderungen: Wie garantieren wir unseren Lebensstandard in Zeiten wach-senden globalen Wettbewerbs? Wie schaffen wir neue Arbeitsplätze, wenn alte verloren gehen? Wie schützen wir unsere eigenen Daten und unsere Privatsphäre? Antworten auf diese Fragen geben wir mit unserer Digitalstrategie.Mit unserer Digitalstrategie zeigen wir, wie wir die Chancen entwickeln und uns offensiv den Herausforderungen stellen: Wir nutzen unsere Strategie für Künstliche Intelligenz, um die Datensicherheit und den Schutz der Privat-sphäre zu stärken. Wir fördern Forschung und Entwicklung von KI-Anwendungen zum Schutz der Verbraucherin-nen und Verbraucher. Wir haben die nationale Dekade gegen Krebs ausgerufen, weil wir große Potenziale moderner Technologien bei der Krebsprävention erkannt haben. Mit dem DigitalPakt wollen wir nachwachsende Generatio-nen zu einem eigenverantwortlichen Umgang mit digitalen Neuerungen befähigen. Der MINT-Aktionsplan legt die Grundlage, damit Deutschland in Wissenschaft, Forschung und Innovation weiterhin zur Spitze gehört.Unsere Digitalstrategie verstehen wir als dynamischen Prozess im Sinne des offenen Dialogs, um gemeinsam den Herausforderungen des digitalen Wandels zu begegnen. Die Menschen stehen im Mittelpunkt. Ich bin überzeugt, mit Hilfe von Bildung und Forschung bereiten wir sie auf veränderte Lebens- und Arbeitsbedingungen vor, stärken die Innovationskraft unserer Wirtschaft und sichern damit unseren Wohlstand. (A. Karliczec)
    Editor
    Bundesministerium für Bildung und Forschung
  17. Schmid, E.: Variationen zu Poppers Drei-Welten-Lehre : Gedanken zu einer phänomenologischen und kulturellen Basis von Poppers drei Welten in Handlungsgemeinschaften (2018) 0.02
    0.023627415 = product of:
      0.1134116 = sum of:
        0.012389454 = weight(_text_:und in 4510) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4510,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4510)
        0.024970978 = weight(_text_:des in 4510) [ClassicSimilarity], result of:
          0.024970978 = score(doc=4510,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.41049933 = fieldWeight in 4510, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4510)
        0.053386316 = weight(_text_:fragen in 4510) [ClassicSimilarity], result of:
          0.053386316 = score(doc=4510,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.47733653 = fieldWeight in 4510, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=4510)
        0.010275402 = weight(_text_:der in 4510) [ClassicSimilarity], result of:
          0.010275402 = score(doc=4510,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.20941564 = fieldWeight in 4510, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4510)
        0.012389454 = weight(_text_:und in 4510) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4510,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4510)
      0.20833333 = coord(5/24)
    
    Abstract
    Die leitende Idee des in dieser Arbeit verfolgten Ansatzes besteht in der Verbindung von Poppers Drei-Welten-Lehre mit dem Programm des sogenannten 'methodischen Kulturalismus' (MK). In dieser Arbeit möchte ich das Potential des MK zur Klärung von Fragen zu den Popperschen Welten erkunden. Ich betrachte die Diskussion um die Erst-Person-Perspektive (1P) und ihr Verhältnis zur Dritt-Person-Perspektive (3P) als eine weitere wichtige Facette dieser Fragen. Ich möchte aufzeigen, dass ein Ansatz, wie ihn der MK verfolgt, erweitert um phänomenologische Analysen, die drei Welten Poppers teilweise präzisiert und teilweise in einem etwas anderen Licht erscheinen lässt. #Kultur #Erst-Person-Perspektive #1P #Dritt-Person-Perspektive #3P #Leib-Seele-Problematik
    Content
    Teil des Projekts: Zur Wirkung künstlicher Intelligenz (KI) auf unsere kulturellen Lebensräume. Die Industrialisierung des kollektiven Denkens.
  18. Griesbaum, J.: Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung : Einen breiten gesellschaftlichen Diskurs sicherstellen (2019) 0.02
    0.022485103 = product of:
      0.1079285 = sum of:
        0.021459164 = weight(_text_:und in 5373) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5373,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5373, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5373)
        0.037749823 = weight(_text_:fragen in 5373) [ClassicSimilarity], result of:
          0.037749823 = score(doc=5373,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 5373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5373)
        0.010275402 = weight(_text_:der in 5373) [ClassicSimilarity], result of:
          0.010275402 = score(doc=5373,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.20941564 = fieldWeight in 5373, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5373)
        0.021459164 = weight(_text_:und in 5373) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5373,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5373, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5373)
        0.016984947 = product of:
          0.033969894 = sum of:
            0.033969894 = weight(_text_:deutschland in 5373) [ClassicSimilarity], result of:
              0.033969894 = score(doc=5373,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.32018375 = fieldWeight in 5373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5373)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Zur Demokratie gehört Diskurs. Dazu gehört die Bereitschaft, Perspektiven anderer zu kennen und als mögliche Standpunkte anzuerkennen. Initiativen wie "Deutschland spricht" und Veranstaltungen wie die unsrige am 18. Und 19. Oktober, in denen Menschen mit gegensätzlichen Ansichten gezielt zu einer Debatte zusammengebracht werden, versuchen einer zunehmend als stärker empfundenen Polarisierung entgegenzuwirken. Demokratie braucht Offenheit für verschiedene Standpunkte. Voraussetzung für einen sachlich-zielführenden Diskurs ist eine fundierte Wissensbasis und der ständige und optimale Zugang zu relevantem Wissen. Hierzu gehört die Fähigkeit, Zugang zu Informationen zu erlangen, um Sachverhalte zu überschauen, Fragen auf den Grund zu gehen und Perspektiven kritisch zu hinterfragen. Hierfür ist gelebte Informationskompetenz unverzichtbar.
    Footnote
    Zur gleichnamigen Veranstaltung am 18. und 19. Oktober in Hildesheim (siehe Open Password, 20. August, #613).
    Series
    Informationskompetenz und Demokratie
  19. Unkhoff-Giske, B.: Umfrage zur RDA-Einführung in der Universitätsbibliothek Trier (2018) 0.02
    0.021861129 = product of:
      0.10493342 = sum of:
        0.014454362 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4343,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4343, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.013028587 = weight(_text_:des in 4343) [ClassicSimilarity], result of:
          0.013028587 = score(doc=4343,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.04404146 = weight(_text_:fragen in 4343) [ClassicSimilarity], result of:
          0.04404146 = score(doc=4343,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.018954644 = weight(_text_:der in 4343) [ClassicSimilarity], result of:
          0.018954644 = score(doc=4343,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.38630107 = fieldWeight in 4343, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
        0.014454362 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4343,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4343, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4343)
      0.20833333 = coord(5/24)
    
    Abstract
    Nach fast einem Jahr praktischer Erfahrung mit dem neuen Regelwerk wurde in der Universitätsbibliothek Trier eine Umfrage zur Einführung von "Resource Description and Access (RDA)" durchgeführt. Dabei ging es um den Katalogisierungsalltag: die Sicherheit im Umgang mit RDA und dem Toolkit, die Informationsversorgung, Änderungen beim Arbeitsaufwand, die Bewertung der RDA-Regelungen, insbesondere des neuen Prinzips "Cataloguer's judgement" und die persönliche Einstellung gegenüber dem Regelwerksumstieg. Die Ergebnisse der 20 Fragen werden im folgenden Beitrag vorgestellt und analysiert. Die Umfrage führte zu überraschend positiven Erkenntnissen, deckte aber auch Problemfelder auf, die der Nachbearbeitung bedürfen.
  20. Adam, M.; Musiat, J.; Stöhr, M.; Wenzel, C.: Literaturverwaltungsprogramme im Überblick (2016) 0.02
    0.021808844 = product of:
      0.13085306 = sum of:
        0.026975857 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
          0.026975857 = score(doc=3298,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.55409175 = fieldWeight in 3298, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3298)
        0.013700536 = weight(_text_:der in 3298) [ClassicSimilarity], result of:
          0.013700536 = score(doc=3298,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 3298, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3298)
        0.0632008 = weight(_text_:allgemeines in 3298) [ClassicSimilarity], result of:
          0.0632008 = score(doc=3298,freq=2.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.5042929 = fieldWeight in 3298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0625 = fieldNorm(doc=3298)
        0.026975857 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
          0.026975857 = score(doc=3298,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.55409175 = fieldWeight in 3298, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3298)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Dokument enthält einen Vergleich von sechs Literaturverwaltungsprogrammen - Zotero, Citavi, Mendeley, RefWorks, EndNote und JabRef. Es wurden Versionen mit Stand 11/2016 getestet. Folgende Kriterien wurden berücksichtigt: Allgemeines und Installation, Import- / Exportmöglichkeiten, Dateneingabe und -bearbeitung, Anzeige und Suche, Kooperation, Zitieren und Literaturlisten, weitere Funktionen und Benutzung. Der Vergleich schließt mit einer Gesamtbewertung der Stärken und Schwächen und gibt zielgruppenspezifische Auswahlempfehlungen.

Authors

Languages

  • d 407
  • e 97
  • a 1
  • f 1
  • i 1
  • no 1
  • More… Less…

Types

  • a 349
  • r 10
  • m 8
  • n 6
  • s 6
  • x 5
  • p 2
  • b 1
  • i 1
  • l 1
  • More… Less…