Search (258 results, page 1 of 13)

  • × year_i:[2020 TO 2030}
  • × type_ss:"el"
  1. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.05
    0.046380866 = product of:
      0.18552347 = sum of:
        0.061534967 = product of:
          0.1846049 = sum of:
            0.1846049 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.1846049 = score(doc=31,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013487929 = score(doc=31,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.025789918 = weight(_text_:des in 31) [ClassicSimilarity], result of:
          0.025789918 = score(doc=31,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.42396194 = fieldWeight in 31, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.009687742 = weight(_text_:der in 31) [ClassicSimilarity], result of:
          0.009687742 = score(doc=31,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.061534967 = product of:
          0.1846049 = sum of:
            0.1846049 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.1846049 = score(doc=31,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.013487929 = score(doc=31,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
      0.25 = coord(6/24)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  2. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.04
    0.037455875 = product of:
      0.1498235 = sum of:
        0.019121325 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019121325 = score(doc=115,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.018425206 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.018425206 = score(doc=115,freq=16.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 115, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.0658769 = weight(_text_:unterrichts in 115) [ClassicSimilarity], result of:
          0.0658769 = score(doc=115,freq=2.0), product of:
            0.19344433 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.021966046 = queryNorm
            0.34054708 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.022023305 = weight(_text_:der in 115) [ClassicSimilarity], result of:
          0.022023305 = score(doc=115,freq=54.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44884127 = fieldWeight in 115, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.005255444 = product of:
          0.010510888 = sum of:
            0.010510888 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.010510888 = score(doc=115,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.5 = coord(1/2)
        0.019121325 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.019121325 = score(doc=115,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
      0.25 = coord(6/24)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49
  3. Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020) 0.04
    0.03584037 = product of:
      0.14336148 = sum of:
        0.020441556 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5847,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.018425206 = weight(_text_:des in 5847) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5847,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.04404146 = weight(_text_:fragen in 5847) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5847,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.011987969 = weight(_text_:der in 5847) [ClassicSimilarity], result of:
          0.011987969 = score(doc=5847,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.020441556 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5847,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5847)
        0.028023731 = product of:
          0.056047462 = sum of:
            0.056047462 = weight(_text_:deutschland in 5847) [ClassicSimilarity], result of:
              0.056047462 = score(doc=5847,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5282762 = fieldWeight in 5847, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5847)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
  4. Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020) 0.03
    0.033121105 = product of:
      0.13248442 = sum of:
        0.025790704 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.025790704 = score(doc=27,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.011167361 = weight(_text_:des in 27) [ClassicSimilarity], result of:
          0.011167361 = score(doc=27,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.037749823 = weight(_text_:fragen in 27) [ClassicSimilarity], result of:
          0.037749823 = score(doc=27,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 27, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.022976499 = weight(_text_:der in 27) [ClassicSimilarity], result of:
          0.022976499 = score(doc=27,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46826762 = fieldWeight in 27, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 27) [ClassicSimilarity], result of:
              0.018018665 = score(doc=27,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 27, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=27)
          0.5 = coord(1/2)
        0.025790704 = weight(_text_:und in 27) [ClassicSimilarity], result of:
          0.025790704 = score(doc=27,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 27, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=27)
      0.25 = coord(6/24)
    
    Abstract
    Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
    Content
    Vgl. auch: https://www.bundestag.de/ausschuesse/weitere_gremien/enquete_ki. Vgl. auch: https://www.tabea-roessner.de/2020/10/28/der-abschlussbericht-der-enquete-kommission-ki-ist-da/.
    Date
    6.11.2020 10:29:02
  5. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.03
    0.032786824 = product of:
      0.15737675 = sum of:
        0.020441556 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.020441556 = score(doc=252,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.04404146 = weight(_text_:fragen in 252) [ClassicSimilarity], result of:
          0.04404146 = score(doc=252,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 252, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.011987969 = weight(_text_:der in 252) [ClassicSimilarity], result of:
          0.011987969 = score(doc=252,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.24431825 = fieldWeight in 252, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.020441556 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.020441556 = score(doc=252,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 252) [ClassicSimilarity], result of:
            0.03963154 = score(doc=252,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
          0.020832673 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
            0.020832673 = score(doc=252,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 252, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=252)
      0.20833333 = coord(5/24)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05
  6. Abbe: Hoffnungen auf Verbesserung polizeilicher Texte durch Chatbot GPT : eine Statusaufnahme (2023) 0.03
    0.026405826 = product of:
      0.12674797 = sum of:
        0.013487929 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.013487929 = score(doc=865,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.014889815 = weight(_text_:des in 865) [ClassicSimilarity], result of:
          0.014889815 = score(doc=865,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.07118175 = weight(_text_:fragen in 865) [ClassicSimilarity], result of:
          0.07118175 = score(doc=865,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.6364487 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.013700536 = weight(_text_:der in 865) [ClassicSimilarity], result of:
          0.013700536 = score(doc=865,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
        0.013487929 = weight(_text_:und in 865) [ClassicSimilarity], result of:
          0.013487929 = score(doc=865,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 865, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=865)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Hoffnungen an den Einsatz von künstlicher Intelligenz sind hoch, auch in der polizeilichen Informationstechnik. Geradezu einen Hype ausgelöst hat die Veröffentlichung des Chatbots GPT vor wenigen Wochen. Der verspricht eine Beantwortung von Fragen und die Erstellung von Texten quasi wie ein Mensch. Das wäre ein immenser Fortschritt für die vielen Texte in polizeilichen Informations­systemen. Wie belastbar diese Hoffnungen sind, habe ich mir in einem Test mit Fragen und Textaufgaben näher angesehen.
  7. Griesbaum, J.; Çetta, D.: What is information literacy and how to improve it? (2021) 0.03
    0.02638925 = product of:
      0.105557 = sum of:
        0.010115947 = weight(_text_:und in 201) [ClassicSimilarity], result of:
          0.010115947 = score(doc=201,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.20778441 = fieldWeight in 201, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.01934244 = weight(_text_:des in 201) [ClassicSimilarity], result of:
          0.01934244 = score(doc=201,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.31797147 = fieldWeight in 201, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.037749823 = weight(_text_:fragen in 201) [ClassicSimilarity], result of:
          0.037749823 = score(doc=201,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.019223517 = weight(_text_:der in 201) [ClassicSimilarity], result of:
          0.019223517 = score(doc=201,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 201, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 201) [ClassicSimilarity], result of:
              0.018018665 = score(doc=201,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 201, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=201)
          0.5 = coord(1/2)
        0.010115947 = weight(_text_:und in 201) [ClassicSimilarity], result of:
          0.010115947 = score(doc=201,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.20778441 = fieldWeight in 201, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
      0.25 = coord(6/24)
    
    Abstract
    Im Vortrag wurden zunächst Entwicklungstendenzen im Bereich der Informationskompetenz, wie sie in der Literatur diskutiert werden, thematisiert. Dabei wurden insbesondere die folgenden Aspekte angeführt: die zunehmende Breite des Konzepts "Informationskompetenz" - dessen Überlappung mit anderen Kompetenzen sowie zentrale Problemfelder wie zunehmend komplexer werdende Informationsmärkte, Herausforderung der Informationsbewertung sowie der Bestätigungsfehler. Nachfolgend wurden der Kontext und das Design der Studie vorgestellt. Im Rahmen des "Calls für Positionspapiere" wurden Experte*innen dazu aufgerufen nachfolgende Fragen zu beantworten: - Was ist Informationskompetenz? - Wie soll man Informationskompetenz vermitteln? - Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? - Welche weiteren Aspekte des Themas sind relevant?
    Date
    29. 3.2021 18:55:14
  8. Petersohn, S.: Neue Version 1.3. des KDSF-Standard für Forschungsinformationen veröffentlicht (2022) 0.03
    0.025905414 = product of:
      0.103621654 = sum of:
        0.018849954 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4219,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.029428583 = weight(_text_:des in 4219) [ClassicSimilarity], result of:
          0.029428583 = score(doc=4219,freq=20.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.48377815 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.014831265 = weight(_text_:der in 4219) [ClassicSimilarity], result of:
          0.014831265 = score(doc=4219,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.30226544 = fieldWeight in 4219, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.0075077773 = product of:
          0.015015555 = sum of:
            0.015015555 = weight(_text_:29 in 4219) [ClassicSimilarity], result of:
              0.015015555 = score(doc=4219,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19432661 = fieldWeight in 4219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4219)
          0.5 = coord(1/2)
        0.018849954 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4219,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 4219) [ClassicSimilarity], result of:
              0.028308243 = score(doc=4219,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 4219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4219)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Content
    "es gab viel Bewegung rund um den KDSF - Standard für Forschungsinformationen (Kerndatensatz Forschung) im Jahr 2022. Die Kommission für Forschungsinformationen in Deutschland (KFiD), ein aus 17 ehrenamtlichen Mitgliedern bestehendes Gremium zur Förderung des KDSF und Professionalisierung des Forschungsinformationswesens, hat eine Weiterentwicklung des KDSF zur Version 1.3 beschlossen und sich intensiv mit ihrem Arbeitsprogramm für die erste Amtsperiode befasst. In diesem Zuge wurden drei neue Arbeitsgruppen ins Leben gerufen: Die AG Weiterentwicklung des KDSF, die AG Datenabfragen im KDSF-Format und die AG Forschungsinformationsmanagement. Diese befassen sich mit der Aktualisierung und Ergänzung des KDSF sowie der Erstellung von mittel- und langfristigen Weiterentwicklungsplänen, der Stärkung von Datenabfragen im KDSF-Format sowie dem Abgleich von Informationsbedürfnissen mit der potentiellen Anwendbarkeit des KDSF in Berichtslegungsprozessen. Schließlich sollen die Mehrwerte des KDSF in beispielhaften, einrichtungs- und systemspezifischen Implementierungsvorhaben demonstriert werden. Ein erstes Ergebnis der AG Weiterentwicklung ist die bereits von Praktiker:innen und Anwender:innen lange erwartete Integration der Forschungsfeldklassifikation in den Kern des KDSF. Dadurch können Hochschulen und Forschungseinrichtungen zukünftig nicht nur ihre Forschungsaktivitäten entlang von Forschungsdisziplinen ausweisen, sondern auch interdisziplinäre bzw. gegenstands- und problembezogene Forschung abbilden. Dazu gehören zum Beispiel Forschung zu Nachhaltigkeit oder zur Digitalen Wirtschaft. Hierfür stehen nun insgesamt 72 Forschungsfelder zur Verfügung. Die Version 1.3 ist auf dem gewohnten Webauftritt des KDSF und das zugehörige Datenmodell nun auch auf Github zu finden. Spezifikation: https://www.kerndatensatz-forschung.de/index.php?id=spezifikation bzw. https://www.kerndatensatz-forschung.de/version1/Spezifikation_KDSF_v1_3.pdf Datenmodell: https://github.com/KFiD-G/KDSF Informationen zur KFiD finden Sie auf einem neuen Webauftritt unter www.kfid-online.de.
    Date
    16.12.2022 9:46:29
  9. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.03
    0.025511382 = product of:
      0.10204553 = sum of:
        0.018469108 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.018469108 = score(doc=877,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0074449074 = weight(_text_:des in 877) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=877,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.035590876 = weight(_text_:fragen in 877) [ClassicSimilarity], result of:
          0.035590876 = score(doc=877,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.31822434 = fieldWeight in 877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.016065303 = weight(_text_:der in 877) [ClassicSimilarity], result of:
          0.016065303 = score(doc=877,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.32741547 = fieldWeight in 877, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
        0.0060062218 = product of:
          0.0120124435 = sum of:
            0.0120124435 = weight(_text_:29 in 877) [ClassicSimilarity], result of:
              0.0120124435 = score(doc=877,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15546128 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.5 = coord(1/2)
        0.018469108 = weight(_text_:und in 877) [ClassicSimilarity], result of:
          0.018469108 = score(doc=877,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3793607 = fieldWeight in 877, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=877)
      0.25 = coord(6/24)
    
    Abstract
    ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
    ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
    Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
    Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
    Source
    https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
  10. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.02
    0.023611624 = product of:
      0.094446495 = sum of:
        0.021459164 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.021459164 = score(doc=299,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.015793033 = weight(_text_:des in 299) [ClassicSimilarity], result of:
          0.015793033 = score(doc=299,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 299, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.017797519 = weight(_text_:der in 299) [ClassicSimilarity], result of:
          0.017797519 = score(doc=299,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 299, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 299) [ClassicSimilarity], result of:
              0.018018665 = score(doc=299,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.5 = coord(1/2)
        0.021459164 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.021459164 = score(doc=299,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.017856576 = score(doc=299,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Date
    30. 6.2021 16:29:52
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  11. Griesbaum, J.; März, S.; Woltermann, T.: Wie man Fake News und eigene Vorurteile überwindet : Die Pandemie trifft die Armen, die Bildungswilligen und die ländlichen Räume am Schlimmsten. "Intercultural Perspectives on Information Literacy": Ein deutsch-indischer Vergleich (2021) 0.02
    0.02320527 = product of:
      0.09282108 = sum of:
        0.0052291043 = product of:
          0.015687313 = sum of:
            0.015687313 = weight(_text_:p in 217) [ClassicSimilarity], result of:
              0.015687313 = score(doc=217,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19862589 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
        0.018849954 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.018849954 = score(doc=217,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.01861227 = weight(_text_:des in 217) [ClassicSimilarity], result of:
          0.01861227 = score(doc=217,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30596817 = fieldWeight in 217, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.01712567 = weight(_text_:der in 217) [ClassicSimilarity], result of:
          0.01712567 = score(doc=217,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 217, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.018849954 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.018849954 = score(doc=217,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.014154121 = product of:
          0.028308243 = sum of:
            0.028308243 = weight(_text_:deutschland in 217) [ClassicSimilarity], result of:
              0.028308243 = score(doc=217,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.26681978 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=217)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Die Online-Tagung im Rahmen des transnationalen Projektkurses "Intercultural perspectives on information literacy" wurde von Professor Dr. Joachim Griesbaum (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Tessy Thadathil (Symbiosis College of Arts and Commerce Pune, Indien), Sophie März (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Jini M. Jacob (Symbiosis College of Arts and Commerce Pune, Indien) und Theresia Woltermann (Stiftung Universität Hildesheim, Institut für Informationswissenschaft) organisiert. Der Einladung nach Hildesheim folgten rund 150 internationale Teilnehmende, unter anderem aus Indien, den USA, Niederlande, Südafrika, Bosnien und Herzegowina und Deutschland. Ziel der Tagung war es, die Ergebnisse des Projektkurses vorzustellen und einen Diskursraum für eine interkulturellen Perspektive der Informationskompetenz zu schaffen. Die zahlreichen Beiträge der teilnehmenden Studierenden und Angehörigen unterschiedlicher Fachrichtungen führten zu einem regen Diskurs.
    Content
    Im Rahmen des Projektkurses erarbeiteten die Teilnehmenden Vorträge zu folgenden Themen: - Informationsverhalten in Corona-Zeiten - Der Bestätigungsfehler (confirmation bias): "Was ich glaube, ist sicher wahr." Wie man kognitive Fehler korrigiert, um einen offenen Geist zu fördern. - Auswirkungen der Pandemie auf den Bildungssektor - Kultivierung von Informationskompetenz in ländlichen Umgebungen. Die Vorträge wurden auf der Tagung von den Studierenden präsentiert und im Plenum diskutiert. Ergänzend wurden mit Dr. Thomas P. Mackey und Trudi E. Jacobson renommierte ExpertInnen für eine Keynote zum Thema "Metaliteracy und offene Lernumgebungen" gewonnen. Schließlich wurde ein Workshop zu kulturellen Aspekten von Informationskompetenz durchgeführt, in dem auch Möglichkeiten zur Weiterentwicklung des Projekts diskutiert wurden. Nachfolgend werden die einzelnen Sessions der Tagung vorgestellt.
  12. Aleksander, K.; Bucher, M.; Dornick, S.; Franke-Maier, M.; Strickert, M.: Mehr Wissen sichtbar machen : Inhaltserschließung in Bibliotheken und alternative Zukünfte. (2022) 0.02
    0.022463167 = product of:
      0.10782321 = sum of:
        0.019661864 = weight(_text_:und in 677) [ClassicSimilarity], result of:
          0.019661864 = score(doc=677,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 677, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.0074449074 = weight(_text_:des in 677) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=677,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.043589745 = weight(_text_:fragen in 677) [ClassicSimilarity], result of:
          0.043589745 = score(doc=677,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.38974366 = fieldWeight in 677, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.017464826 = weight(_text_:der in 677) [ClassicSimilarity], result of:
          0.017464826 = score(doc=677,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.35593814 = fieldWeight in 677, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
        0.019661864 = weight(_text_:und in 677) [ClassicSimilarity], result of:
          0.019661864 = score(doc=677,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 677, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=677)
      0.20833333 = coord(5/24)
    
    Abstract
    Dieser Werkstattbericht beschäftigt sich mit Diskriminierung in Wissensorganisationssystemen. Dabei geht es um die Fragen, inwiefern Wissensorganisationssysteme als Ordnungssysteme bestimmte Perspektiven und Informationen (nicht) abdecken; wie bei der Erstellung und Pflege, insbesondere bei der Inhaltsanalyse, vorgegangen wird und welche bibliotheksethischen Fragen im Zuge dessen bedeutsam sind. Gleichzeitig dreht er sich auch um die Frage, inwiefern in diese Prozesse und Systeme interveniert werden kann und welche Erwartungen und Wünsche an derzeitige Systeme und zukünftige Entwicklungen der Wissensorganisation gestellt werden.
    "Der Text basiert auf einem Dialog, der versucht, die unterschiedlichen Hintergründe und Perspektiven der Beteiligten auf das vielschichtige Thema Wissensorganisation, und hier vor allem als Inhaltserschliessung, zu vermitteln. Die dafür geführten umfangreichen Gespräche zeichneten sich durch notwendige Übersetzungen von unterschiedlichen Sicht- beziehungsweise Denkweisen aus. In diesem Prozess von Übersetzung und Rückübersetzung zeigten sich auch widerstreitende Positionen, die in einen produktiven Austausch gebracht werden konnten. Die Richtung des vorliegenden Textes passte sich immer wieder den in der Gruppe geführten Diskussionen an. Der Redaktionsprozess war aus diesem Grund ein iterativer, der immer wieder versuchte, neu gewonnene Erkenntnisse und Diskussionsergebnisse aufzunehmen und in eine Textform zu überführen. Diese Form stellt Argumente in einen loseren Zusammenhang als ein stringent argumentierter Artikel. Manche Themen werden eher angerissen als in der Tiefe erörtert."
    "Auch unter bibliotheksethischen Aspekten sind Erwerbung und Inhaltserschließung verschiedenster Wissen einer Gesellschaft wünschenswert. Auf der Ebene der angewandten Wissensorganisationssysteme entstehen dabei Fragen im Zusammenhang mit solchen "allgemeinen" bibliotheksethischen Werten, wie zum Beispiel Gleichbehandlung und Neutralität, aber auch der Orientierung am Nutzer*innenbedarf, Informationen, Inhalte, Ressourcen suchen und finden zu können. Letztlich stellt sich die Frage: Müssen Bibliotheken neutral sein? Und gibt es zum Beispiel einen Anspruch auf unkommentierten access to disinformation?"
  13. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.02
    0.021843344 = product of:
      0.10484806 = sum of:
        0.020441556 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.020441556 = score(doc=540,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.025430324 = weight(_text_:der in 540) [ClassicSimilarity], result of:
          0.025430324 = score(doc=540,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5182773 = fieldWeight in 540, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.021021776 = score(doc=540,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
        0.020441556 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.020441556 = score(doc=540,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.028023731 = product of:
          0.056047462 = sum of:
            0.056047462 = weight(_text_:deutschland in 540) [ClassicSimilarity], result of:
              0.056047462 = score(doc=540,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5282762 = fieldWeight in 540, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
  14. Hapke, T.: Zu einer ganzheitlichen Informationskompetenz gehört eine kritische Wissenschaftskompetenz : Informationskompetenz und Demokratie (2020) 0.02
    0.02175422 = product of:
      0.10442026 = sum of:
        0.021459164 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5685,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.011167361 = weight(_text_:des in 5685) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5685,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5685, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.037749823 = weight(_text_:fragen in 5685) [ClassicSimilarity], result of:
          0.037749823 = score(doc=5685,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 5685, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.012584748 = weight(_text_:der in 5685) [ClassicSimilarity], result of:
          0.012584748 = score(doc=5685,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.25648075 = fieldWeight in 5685, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.021459164 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5685,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
      0.20833333 = coord(5/24)
    
    Abstract
    1. Was ist Informationskompetenz? Was macht Informationskompetenz im Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? 2. Wie soll man Informationskompetenz vermitteln? Wie soll Informationskompetenz am besten vermittelt werden? Wie werden Menschen am besten zu informationskompetentem Verhalten motiviert und geführt? 3. Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? Wie entwickelt sich Informationskompetenz? Welche Bereiche werden künftig wichtiger? 4. Weitere Aspekte des Themas - Welche? Warum sind diese wichtig? Was folgert daraus?
    Footnote
    Leicht veränderte Fassung eines Beitrages, der für das Projekt "Informationskompetenz und Demokratie" erstellt wurde (Daphné Çetta, Joachim Griesbaum, Thomas Mandl, Elke Montanari). Die ursprüngliche Fassung ist enthalten in: Çetta, D., Griesbaum, J., Mandl, T., Montanari, E. (Hg). (2019). Positionspapiere: Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Projekt: Zukunftsdiskurse: Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung, Universität Hildesheim, http://informationskompetenz.blog.uni-hildesheim.de/files/2019/10/Projekt_Informationskompetenz_und_DemokratieKompilation_aller_Positionspapiere.pdf. Die Fragen, die den Beitrag strukturieren und entsprechend hervorgehoben werden, wurden von den Hildesheimer Forschern gestellt.
  15. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.020641023 = product of:
      0.09907691 = sum of:
        0.023603875 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.023603875 = score(doc=428,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.013028587 = weight(_text_:des in 428) [ClassicSimilarity], result of:
          0.013028587 = score(doc=428,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.023975939 = weight(_text_:der in 428) [ClassicSimilarity], result of:
          0.023975939 = score(doc=428,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4886365 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.014864641 = product of:
          0.029729282 = sum of:
            0.029729282 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
              0.029729282 = score(doc=428,freq=4.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.38474706 = fieldWeight in 428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
        0.023603875 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.023603875 = score(doc=428,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
      0.20833333 = coord(5/24)
    
    Abstract
    Im abschließenden Teil 4 dieser Reihe zur Kritik des "Informationskompetenz"-Ansatzes der Bibliotheks- und Informationswissenschaft und dessen Eignung für die Aufdeckung und "Bekämpfung" von Desinformationen bzw. Fake News (Open Password - noch einzufügen) werden ausgewählte Forschungsergebnisse vorgestellt. Diese entstammen der Studie "Quelle: Internet? - Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test". Träger der Studie ist die Berliner Stiftung "Neue Verantwortung", ein Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen).
    Date
    29. 9.2021 18:17:40
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
    Source
    Open Password. 2021, Nr.979 vom 29. September 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM1OSwiNWZhNTM1ZjgxZDVlIiwwLDAsMzI2LDFd]
  16. Westphalen, A. von: Künstliche Intelligenz mit lebensgefährlichen Nebenwirkungen (2023) 0.02
    0.019773912 = product of:
      0.11864347 = sum of:
        0.0143061085 = weight(_text_:und in 879) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=879,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=879)
        0.07549965 = weight(_text_:fragen in 879) [ClassicSimilarity], result of:
          0.07549965 = score(doc=879,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.67505574 = fieldWeight in 879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.09375 = fieldNorm(doc=879)
        0.014531613 = weight(_text_:der in 879) [ClassicSimilarity], result of:
          0.014531613 = score(doc=879,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=879)
        0.0143061085 = weight(_text_:und in 879) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=879,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=879)
      0.16666667 = coord(4/24)
    
    Abstract
    Debatte über KI schwankt zwischen Hoffnung und Ängsten. Simulation der US-Luftwaffe dürfte Bedenken schüren. Warum das Experiment bedenkliche Fragen aufwirft.
  17. Rötzer, F.: Droht bei einer Verschmelzung des Gehirns mit KI der Verlust des Bewusstseins? (2020) 0.02
    0.0194186 = product of:
      0.093209274 = sum of:
        0.011921758 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5699,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
        0.03722454 = weight(_text_:des in 5699) [ClassicSimilarity], result of:
          0.03722454 = score(doc=5699,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.61193633 = fieldWeight in 5699, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
        0.01712567 = weight(_text_:der in 5699) [ClassicSimilarity], result of:
          0.01712567 = score(doc=5699,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 5699, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
        0.015015555 = product of:
          0.03003111 = sum of:
            0.03003111 = weight(_text_:29 in 5699) [ClassicSimilarity], result of:
              0.03003111 = score(doc=5699,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.38865322 = fieldWeight in 5699, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5699)
          0.5 = coord(1/2)
        0.011921758 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5699,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5699)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Philosophin und Kognitionswissenschaftlerin Susan Schneider führt ungelöste Probleme für die Implantation von Chips im Gehirn zur kognitiven Optimierung an.
    Date
    29. 6.2019 17:46:17
    Source
    https://www.heise.de/tp/features/Droht-bei-einer-Verschmelzung-des-Gehirns-mit-KI-der-Verlust-des-Bewusstseins-4654834.html?wt_mc=nl.tp-aktuell.woechentlich
  18. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.02
    0.019394588 = product of:
      0.07757835 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.08721976 = score(doc=5669,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.008429956 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008429956 = score(doc=5669,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.009306135 = weight(_text_:des in 5669) [ClassicSimilarity], result of:
          0.009306135 = score(doc=5669,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 5669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.014831265 = weight(_text_:der in 5669) [ClassicSimilarity], result of:
          0.014831265 = score(doc=5669,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.30226544 = fieldWeight in 5669, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.0075077773 = product of:
          0.015015555 = sum of:
            0.015015555 = weight(_text_:29 in 5669) [ClassicSimilarity], result of:
              0.015015555 = score(doc=5669,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19432661 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.5 = coord(1/2)
        0.008429956 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008429956 = score(doc=5669,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.25 = coord(6/24)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  19. Scherschel, F.A.: Corona-Tracking : SAP und Deutsche Telekom veröffentlichen erste Details zur Tracing- und Warn-App (2020) 0.02
    0.018859638 = product of:
      0.11315782 = sum of:
        0.022619944 = weight(_text_:und in 5857) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5857,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5857, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.053386316 = weight(_text_:fragen in 5857) [ClassicSimilarity], result of:
          0.053386316 = score(doc=5857,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.47733653 = fieldWeight in 5857, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.014531613 = weight(_text_:der in 5857) [ClassicSimilarity], result of:
          0.014531613 = score(doc=5857,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 5857, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
        0.022619944 = weight(_text_:und in 5857) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5857,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5857, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5857)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Auftrag der Bundesregierung entwickeln SAP und die Deutsche Telekom momentan eine Contact-Tracing-App im Rahmen von Apples und Googles Exposure-Notification-Framework. Die sogenannte Corona-Warn-App und alle von ihr genutzten Serverkomponenten sollen im Vorfeld der für kommenden Monat geplanten Veröffentlichung der App unter der Apache-2.0-Lizenz als Open-Source-Software auf GitHub bereitgestellt werden. Nun haben die Projektverantwortlichen erste Dokumente dazu herausgegeben, wie die App später funktionieren soll: https://github.com/corona-warn-app/cwa-documentation.
    Content
    Vgl.: https://www.heise.de/-4721652. Vgl. auch den Beitrag: "Corona-Warnung per App: Fragen und Antworten zur geplanten Tracing-App" unter: https://www.verbraucherzentrale.de/wissen/digitale-welt/apps-und-software/coronawarnung-per-app-fragen-und-antworten-zur-geplanten-tracingapp-47466
    Source
    https://www.heise.de/newsticker/meldung/Corona-Tracking-SAP-und-Deutsche-Telekom-veroeffentlichen-erste-Details-zur-Tracing-und-Warn-App-4721652.html?view=print
  20. Schuler, K.: Corona-Apps : was heißt hier anonym? Eine Begriffsklärung und ein Plädoyer (2020) 0.02
    0.01866883 = product of:
      0.11201298 = sum of:
        0.023603875 = weight(_text_:und in 5849) [ClassicSimilarity], result of:
          0.023603875 = score(doc=5849,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 5849, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5849)
        0.04404146 = weight(_text_:fragen in 5849) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5849,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5849, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5849)
        0.020763772 = weight(_text_:der in 5849) [ClassicSimilarity], result of:
          0.020763772 = score(doc=5849,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 5849, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5849)
        0.023603875 = weight(_text_:und in 5849) [ClassicSimilarity], result of:
          0.023603875 = score(doc=5849,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 5849, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5849)
      0.16666667 = coord(4/24)
    
    Abstract
    Alle Welt, so scheint es, beschäftigt sich derzeit mit den Möglichkeiten und der Gestaltung sogenannter Corona-Apps. Dabei wird fast inflationär der Begriff der Anonymisierung verwandt und so der Eindruck erweckt, das Nachverfolgen mit diesen Apps sei harmlos. Sogar Informatiker äußern sich in diesem Sinne, die eigentlich besser wissen sollten, was bei der Zielsetzung der App logisch möglich ist - und was nicht. Einwände werden regelmäßig vom Tisch gewischt. Wer wissen und entscheiden will, was eine Corona-App leisten soll und kann, muss sich daher auch damit auseinandersetzen, was sich tatsächlich hinter den hier diskutierten Begriffen verbirgt und was die Konsequenzen sind. Erst deren präzise Verwendung ist die Grundlage für die richtigen Fragen und für die Bestimmung wirksamer Schutzmaßnahmen.

Languages

  • d 231
  • e 25

Types

  • a 183
  • p 9
  • r 1
  • More… Less…