Search (732 results, page 1 of 37)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.23
    0.22872917 = product of:
      0.5082871 = sum of:
        0.034482133 = product of:
          0.103446394 = sum of:
            0.103446394 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.103446394 = score(doc=1000,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012245354 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012245354 = score(doc=1000,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.015609349 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.015609349 = score(doc=1000,freq=4.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.019919295 = weight(_text_:im in 1000) [ClassicSimilarity], result of:
          0.019919295 = score(doc=1000,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27047595 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.103446394 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.103446394 = score(doc=1000,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.012245354 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.012245354 = score(doc=1000,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.45 = coord(9/20)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.16
    0.16360907 = product of:
      0.54536355 = sum of:
        0.041378558 = product of:
          0.124135666 = sum of:
            0.124135666 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.124135666 = score(doc=862,freq=2.0), product of:
                0.22087488 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.026052676 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.007442331 = product of:
          0.022326993 = sum of:
            0.022326993 = weight(_text_:p in 862) [ClassicSimilarity], result of:
              0.022326993 = score(doc=862,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.23835106 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.124135666 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.124135666 = score(doc=862,freq=2.0), product of:
            0.22087488 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.026052676 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.3 = coord(6/20)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
    Type
    p
  3. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.10
    0.1011333 = product of:
      0.2889523 = sum of:
        0.030905876 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.030905876 = score(doc=1186,freq=78.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.038655054 = weight(_text_:medien in 1186) [ClassicSimilarity], result of:
          0.038655054 = score(doc=1186,freq=6.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.3152418 = fieldWeight in 1186, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.008050287 = weight(_text_:im in 1186) [ClassicSimilarity], result of:
          0.008050287 = score(doc=1186,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.10931155 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.056108262 = weight(_text_:unterricht in 1186) [ClassicSimilarity], result of:
          0.056108262 = score(doc=1186,freq=2.0), product of:
            0.19442542 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.026052676 = queryNorm
            0.288585 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.046378437 = weight(_text_:allgemeines in 1186) [ClassicSimilarity], result of:
          0.046378437 = score(doc=1186,freq=4.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.31201532 = fieldWeight in 1186, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.030905876 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.030905876 = score(doc=1186,freq=78.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0779485 = weight(_text_:deutschland in 1186) [ClassicSimilarity], result of:
          0.0779485 = score(doc=1186,freq=22.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.6194588 = fieldWeight in 1186, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
      0.35 = coord(7/20)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    BK
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Classification
    88.10 (Öffentliche Verwaltung: Allgemeines)
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Deutschland / Digitalisierung / Informationstechnik / Infrastrukturpolitik / Verwaltung / Computersicherheit
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Deutschland / Digitalisierung / Informationstechnik / Infrastrukturpolitik / Verwaltung / Computersicherheit
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  4. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.07
    0.070374385 = product of:
      0.20106968 = sum of:
        0.025293894 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.025293894 = score(doc=752,freq=40.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.021628946 = weight(_text_:des in 752) [ClassicSimilarity], result of:
          0.021628946 = score(doc=752,freq=12.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.29978633 = fieldWeight in 752, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.02550572 = weight(_text_:medien in 752) [ClassicSimilarity], result of:
          0.02550572 = score(doc=752,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.20800565 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.013011228 = weight(_text_:im in 752) [ClassicSimilarity], result of:
          0.013011228 = score(doc=752,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.17667414 = fieldWeight in 752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.015377138 = weight(_text_:computer in 752) [ClassicSimilarity], result of:
          0.015377138 = score(doc=752,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.16150802 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.074958876 = weight(_text_:allgemeines in 752) [ClassicSimilarity], result of:
          0.074958876 = score(doc=752,freq=8.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.5042929 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.025293894 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.025293894 = score(doc=752,freq=40.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.35 = coord(7/20)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  5. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.06
    0.064120404 = product of:
      0.18320115 = sum of:
        0.022678712 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.022678712 = score(doc=115,freq=42.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.021853087 = weight(_text_:des in 115) [ClassicSimilarity], result of:
          0.021853087 = score(doc=115,freq=16.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.302893 = fieldWeight in 115, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.07813284 = weight(_text_:unterrichts in 115) [ClassicSimilarity], result of:
          0.07813284 = score(doc=115,freq=2.0), product of:
            0.2294333 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.026052676 = queryNorm
            0.34054708 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.022317505 = weight(_text_:medien in 115) [ClassicSimilarity], result of:
          0.022317505 = score(doc=115,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.18200494 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.011384825 = weight(_text_:im in 115) [ClassicSimilarity], result of:
          0.011384825 = score(doc=115,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.15458988 = fieldWeight in 115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.022678712 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.022678712 = score(doc=115,freq=42.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.39275742 = fieldWeight in 115, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=115)
        0.004155455 = product of:
          0.0124663655 = sum of:
            0.0124663655 = weight(_text_:29 in 115) [ClassicSimilarity], result of:
              0.0124663655 = score(doc=115,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.13602862 = fieldWeight in 115, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=115)
          0.33333334 = coord(1/3)
      0.35 = coord(7/20)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
    Date
    29. 1.2021 13:01:49
  6. Hobohm, H.-C.: Zensur in der Digitalität - eine Überwindung der Moderne? : Die Rolle der Bibliotheken (2020) 0.06
    0.05780237 = product of:
      0.19267456 = sum of:
        0.014884662 = product of:
          0.044653986 = sum of:
            0.044653986 = weight(_text_:p in 5371) [ClassicSimilarity], result of:
              0.044653986 = score(doc=5371,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.47670212 = fieldWeight in 5371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5371)
          0.33333334 = coord(1/3)
        0.023995897 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
          0.023995897 = score(doc=5371,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.07651716 = weight(_text_:medien in 5371) [ClassicSimilarity], result of:
          0.07651716 = score(doc=5371,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.62401694 = fieldWeight in 5371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.039033685 = weight(_text_:im in 5371) [ClassicSimilarity], result of:
          0.039033685 = score(doc=5371,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.53002244 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.023995897 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
          0.023995897 = score(doc=5371,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.014247275 = product of:
          0.042741824 = sum of:
            0.042741824 = weight(_text_:29 in 5371) [ClassicSimilarity], result of:
              0.042741824 = score(doc=5371,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.46638384 = fieldWeight in 5371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5371)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Content
    Beitrag zur Tagung: "Nationalsozialismus Digital. Die Verantwortung von Bibliotheken, Archiven und Museen sowie Forschungseinrichtungen und Medien im Umgang mit der NSZeit im Netz." Österreichische Nationalbibliothek, Universität Wien, 27. - 29. November 2019
    Type
    p
  7. Vierkant, P.; Schrader, A.; Pampel, H.: Organisations-IDs in Deutschland : Ergebnisse einer Bestandsaufnahme im Jahr 2020 (2022) 0.06
    0.05750529 = product of:
      0.19168429 = sum of:
        0.009923108 = product of:
          0.029769324 = sum of:
            0.029769324 = weight(_text_:p in 683) [ClassicSimilarity], result of:
              0.029769324 = score(doc=683,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.31780142 = fieldWeight in 683, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=683)
          0.33333334 = coord(1/3)
        0.019592566 = weight(_text_:und in 683) [ClassicSimilarity], result of:
          0.019592566 = score(doc=683,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.33931053 = fieldWeight in 683, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=683)
        0.017659962 = weight(_text_:des in 683) [ClassicSimilarity], result of:
          0.017659962 = score(doc=683,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.24477452 = fieldWeight in 683, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=683)
        0.03187087 = weight(_text_:im in 683) [ClassicSimilarity], result of:
          0.03187087 = score(doc=683,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.43276152 = fieldWeight in 683, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=683)
        0.019592566 = weight(_text_:und in 683) [ClassicSimilarity], result of:
          0.019592566 = score(doc=683,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.33931053 = fieldWeight in 683, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=683)
        0.09304521 = weight(_text_:deutschland in 683) [ClassicSimilarity], result of:
          0.09304521 = score(doc=683,freq=6.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.73943275 = fieldWeight in 683, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0625 = fieldNorm(doc=683)
      0.3 = coord(6/20)
    
    Abstract
    2020 wurde im Rahmen des Projekts ORCID DE eine "Umfrage zum Bedarf und Nutzung von Organisations-IDs an Hochschulen und außeruniversitären Forschungseinrichtungen in Deutschland" unter 548 wissenschaftlichen Einrichtungen in Deutschland durchgeführt. Mehr im Blogbeitrag unter: https://www.orcid-de.org/umfrageergebnisse-orgids-in-de/.
    Source
    Bibliothek: Forschung und Praxis. 46(2022) H.1, S.191-215
  8. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.06
    0.0552031 = product of:
      0.18401033 = sum of:
        0.024244564 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.024244564 = score(doc=540,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.04463501 = weight(_text_:medien in 540) [ClassicSimilarity], result of:
          0.04463501 = score(doc=540,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.3640099 = fieldWeight in 540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.016100574 = weight(_text_:im in 540) [ClassicSimilarity], result of:
          0.016100574 = score(doc=540,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.2186231 = fieldWeight in 540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.024244564 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.024244564 = score(doc=540,freq=12.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.0664747 = weight(_text_:deutschland in 540) [ClassicSimilarity], result of:
          0.0664747 = score(doc=540,freq=4.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.5282762 = fieldWeight in 540, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.00831091 = product of:
          0.024932731 = sum of:
            0.024932731 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.024932731 = score(doc=540,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
  9. Fielitz, M.; Marcks, H.: Digitaler Faschismus : die sozialen Medien afs Motor des Rechtsextremismus (2020) 0.05
    0.05150616 = product of:
      0.1716872 = sum of:
        0.024244564 = weight(_text_:und in 344) [ClassicSimilarity], result of:
          0.024244564 = score(doc=344,freq=48.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 344, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.015452466 = weight(_text_:des in 344) [ClassicSimilarity], result of:
          0.015452466 = score(doc=344,freq=8.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.2141777 = fieldWeight in 344, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.063123435 = weight(_text_:medien in 344) [ClassicSimilarity], result of:
          0.063123435 = score(doc=344,freq=16.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.51478773 = fieldWeight in 344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.011384825 = weight(_text_:im in 344) [ClassicSimilarity], result of:
          0.011384825 = score(doc=344,freq=4.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.15458988 = fieldWeight in 344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.024244564 = weight(_text_:und in 344) [ClassicSimilarity], result of:
          0.024244564 = score(doc=344,freq=48.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41987535 = fieldWeight in 344, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
        0.03323735 = weight(_text_:deutschland in 344) [ClassicSimilarity], result of:
          0.03323735 = score(doc=344,freq=4.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.2641381 = fieldWeight in 344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.02734375 = fieldNorm(doc=344)
      0.3 = coord(6/20)
    
    Abstract
    Digitale Revolution: Chance oder Gefahr für die Demokratie? Einst galten das Internet und die sozialen Medien als Chance auf unbegrenzten Zugang zu Wissen - und damit als Basis für eine neue Hochphase der demokratischen Debattenkultur. Doch stattdessen sind wir heute mit Hass im Netz, Fake-News und Verschwörungstheorien konfrontiert. Rechte Parteien und Organisationen wie die AfD, Pegida und die Identitäre Bewegung können fast ungehindert ihre Ideologien verbreiten. Doch dabei handelt es sich nicht um eine reine »Online-Radikalisierung«. Das beweist die Welle rechtsmotivierter Gewalt wie die Anschläge von Halle und Hanau und eine wachsende Akzeptanz rechter Positionen in der Bevölkerung. Maik Fielitz und Holger Marcks analysieren diese Entwicklung und gehen den Ursachen auf den Grund: Die Rolle der sozialen Medien beim Erstarken des Ultranationalismus und rechts motivierter Straftaten Die Manipulationstechniken der Rechtsextremen: Verwirrung stiften, Ängste schüren und Mehrheitsverhältnisse verzerren Rechtsextreme Kommunikation im Internet: Verschwörungstheorien, Bedrohungsmythen, Lügen und Hassbotschaften Die sozialen Medien als digitaler Brandbeschleuniger: Fakten, Hintergründe und Analysen Selbstregulation oder politische Eingriffe? Auswege aus der digitalen Hasskultur Die autoritäre Revolte stellt eine große Herausforderung für Demokratien und offene Gesellschaften dar. Wie können wir rechtsextremen Tendenzen begegnen? Politik aber auch Internetkonzerne sind aufgerufen, zu handeln. Wie lässt sich der »digitale Faschismus« bändigen, ohne unser Recht auf freie Meinungsäußerung einzuschränken? Diese Fragen diskutieren Maik Fielitz und Holger Marcks intensiv. Sie untersuchen die manipulativen Strategien und psychologischen Tricks der rechtsextremen Akteure und zeigen mögliche Auswege aus der Misere. Ihr Sachbuch ist ein wichtiger Beitrag zur politischen Debatte!
    Die sozialen Medien haben sich zu einem Raum des Hasses und der Unwahrheit entwickelt. Ohne diese digitalen Brandbeschleuniger sind die rechtsextremen Wahlerfolge ebenso wenig zu verstehen wie die jüngste Welle rechter Gewalt. Maik Fielitz und Holger Marcks gehen dieser Entwicklung und ihren Ursachen auf den Grund. Sie zeigen, mit welchen manipulativen Techniken rechtsextreme Akteure in den sozialen Medien versuchen, Ängste zu verstärken, Verwirrung zu stiften und Mehrheitsverhältnisse zu verzerren. Dass ihr Wirken dabei eine solche Dynamik entfalten kann, hat wiederum mit der Funktionsweise der sozialen Medien selbst zu tun. Denn sie begünstigen die Entstehung und Verbreitung von Bedrohungsmythen, die der führungslosen Masse der Wutbürger eine Richtung geben. Wie aber ließe sich dieser "digitale Faschismus" bändigen, ohne die Werte der offenen Gesellschaft in Mitleidenschaft zu ziehen? "Das Ergebnis ihrer Recherche ist so besorgniserregend, dass die Forscher die Rechten als "die neuen Gatekeeper" bezeichnen. So kursierten etwa in den Wochen nach der Kölner Silvesternacht fünf Mal mehr muslimfeindliche Posts als üblich. Gravierender noch: Rechte Sprache und Sprachbilder seien inzwischen Bestandteil des öffentlichen Diskurses. Plötzlich sei etwa viel von "Nafris" die Rede gewesen - eine Polizeibezeichnung für Nordafrikaner" (deutschlandfunkkultur.de)
    Footnote
    Rez. u.d.T.: Witte-Petit, K.: Radikale Rattenfänger : zwei Forscher beschreiben den 'digitalen Faschismus' in: Rheinpfalz vom 19.08.2021 [Fielitz-Marcks_Rez_RP_20210819.pdf]: "Es gibt mittlerweile viele Bücher darüber, wie soziale Medien die Verbreitung extremen Gedankenguts erleichtern. Das vom Rechtsextremismusforscher Maik Fielitz und dem Radikalisierungsexperten Holger. Marcks vorgelegte Buch "Digitaler Faschismus" gehört zu den wirklich lesenswerten. Leider macht es aber auch wenig Hoffnung."
    RSWK
    Deutschland / Social Media / Rechtsradikalismus / Meinungsbildung / Manipulation / Ideologie
    Subject
    Deutschland / Social Media / Rechtsradikalismus / Meinungsbildung / Manipulation / Ideologie
  10. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.05
    0.05016538 = product of:
      0.20066153 = sum of:
        0.030588884 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.030588884 = score(doc=222,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.013244972 = weight(_text_:des in 222) [ClassicSimilarity], result of:
          0.013244972 = score(doc=222,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.013800492 = weight(_text_:im in 222) [ClassicSimilarity], result of:
          0.013800492 = score(doc=222,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18739122 = fieldWeight in 222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.112438306 = weight(_text_:allgemeines in 222) [ClassicSimilarity], result of:
          0.112438306 = score(doc=222,freq=8.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.7564393 = fieldWeight in 222, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.030588884 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.030588884 = score(doc=222,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
      0.25 = coord(5/20)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
  11. Henke, H.: ¬Die geplanten Neuregelungen urheberrechtlich zulässiger Unterrichts- und Lehrtätigkeiten (2021) 0.05
    0.047381375 = product of:
      0.31587583 = sum of:
        0.023995897 = weight(_text_:und in 6084) [ClassicSimilarity], result of:
          0.023995897 = score(doc=6084,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 6084, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6084)
        0.26788402 = weight(_text_:unterrichts in 6084) [ClassicSimilarity], result of:
          0.26788402 = score(doc=6084,freq=2.0), product of:
            0.2294333 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.026052676 = queryNorm
            1.16759 = fieldWeight in 6084, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.09375 = fieldNorm(doc=6084)
        0.023995897 = weight(_text_:und in 6084) [ClassicSimilarity], result of:
          0.023995897 = score(doc=6084,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.41556883 = fieldWeight in 6084, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6084)
      0.15 = coord(3/20)
    
    Source
    RuZ - Recht und Zugang. 2 (2021) H.1, S.27-44
  12. Michel, A.; Gäde, M.; Wittich, A.; Tappenbeck, I.: Informationsdidaktik (2023) 0.04
    0.042831525 = product of:
      0.1713261 = sum of:
        0.099388435 = weight(_text_:didaktik in 819) [ClassicSimilarity], result of:
          0.099388435 = score(doc=819,freq=2.0), product of:
            0.19763595 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.026052676 = queryNorm
            0.5028864 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=819)
        0.022446105 = weight(_text_:und in 819) [ClassicSimilarity], result of:
          0.022446105 = score(doc=819,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 819, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=819)
        0.013244972 = weight(_text_:des in 819) [ClassicSimilarity], result of:
          0.013244972 = score(doc=819,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.18358089 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=819)
        0.013800492 = weight(_text_:im in 819) [ClassicSimilarity], result of:
          0.013800492 = score(doc=819,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.18739122 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=819)
        0.022446105 = weight(_text_:und in 819) [ClassicSimilarity], result of:
          0.022446105 = score(doc=819,freq=14.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38872904 = fieldWeight in 819, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=819)
      0.25 = coord(5/20)
    
    Abstract
    Bereits im Jahr 1993 leitet Ursula Schulz aus einer kritischen Bestandsaufnahme der Praxis von Benutzer*innenschulungen an deutschen Bibliotheken den Bedarf einer fundierten Informationsdidaktik ab, verstanden als "Theorie des Lehrens und Lernens von Informationskompetenz". Zentral in diesem Plädoyer für Informationsdidaktik ist ihr auf Kants Mündigkeitsbegriff rekurrierendes, emanzipatorisches Verständnis von Informationskompetenz (und ihrer Didaktik) als individuelle Grundvoraussetzung für die aktive Teilhabe an einer funktionierenden Demokratie und Wirtschaft. Dieses sich auch in anglo-amerikanischen Konzepten der Bibliotheks- und Informationswissenschaft wiederfindende, umfassende Verständnis von Informationskompetenz2 als Fähigkeit, Informationsbedarfe wahrzunehmen, benötigte Informationen zu ermitteln, zu bewerten und sie in der Interaktion angemessen zu verwenden, sieht Schulz in den seinerzeit vorhandenen, objektorientierten Benutzer*innenschulungen nicht angemessen adressiert. Schulz schlägt die Etablierung einer wissenschaftlich fundierten Informationsdidaktik vor, die das zielgruppenspezifische Informationsverhalten, relevante "Informationsfertigkeiten", lerntheoretische Ansätze sowie didaktische Konzepte und nicht zuletzt die Analyse der Informationspraxis in verschiedenen Disziplinen umfasst.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Petersohn, S.: Neue Version 1.3. des KDSF-Standard für Forschungsinformationen veröffentlicht (2022) 0.04
    0.041714318 = product of:
      0.13904773 = sum of:
        0.022356857 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.022356857 = score(doc=4219,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.034903567 = weight(_text_:des in 4219) [ClassicSimilarity], result of:
          0.034903567 = score(doc=4219,freq=20.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.48377815 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.019919295 = weight(_text_:im in 4219) [ClassicSimilarity], result of:
          0.019919295 = score(doc=4219,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27047595 = fieldWeight in 4219, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.022356857 = weight(_text_:und in 4219) [ClassicSimilarity], result of:
          0.022356857 = score(doc=4219,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 4219, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.033574793 = weight(_text_:deutschland in 4219) [ClassicSimilarity], result of:
          0.033574793 = score(doc=4219,freq=2.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.26681978 = fieldWeight in 4219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4219)
        0.005936365 = product of:
          0.017809095 = sum of:
            0.017809095 = weight(_text_:29 in 4219) [ClassicSimilarity], result of:
              0.017809095 = score(doc=4219,freq=2.0), product of:
                0.09164517 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19432661 = fieldWeight in 4219, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4219)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    Content
    "es gab viel Bewegung rund um den KDSF - Standard für Forschungsinformationen (Kerndatensatz Forschung) im Jahr 2022. Die Kommission für Forschungsinformationen in Deutschland (KFiD), ein aus 17 ehrenamtlichen Mitgliedern bestehendes Gremium zur Förderung des KDSF und Professionalisierung des Forschungsinformationswesens, hat eine Weiterentwicklung des KDSF zur Version 1.3 beschlossen und sich intensiv mit ihrem Arbeitsprogramm für die erste Amtsperiode befasst. In diesem Zuge wurden drei neue Arbeitsgruppen ins Leben gerufen: Die AG Weiterentwicklung des KDSF, die AG Datenabfragen im KDSF-Format und die AG Forschungsinformationsmanagement. Diese befassen sich mit der Aktualisierung und Ergänzung des KDSF sowie der Erstellung von mittel- und langfristigen Weiterentwicklungsplänen, der Stärkung von Datenabfragen im KDSF-Format sowie dem Abgleich von Informationsbedürfnissen mit der potentiellen Anwendbarkeit des KDSF in Berichtslegungsprozessen. Schließlich sollen die Mehrwerte des KDSF in beispielhaften, einrichtungs- und systemspezifischen Implementierungsvorhaben demonstriert werden. Ein erstes Ergebnis der AG Weiterentwicklung ist die bereits von Praktiker:innen und Anwender:innen lange erwartete Integration der Forschungsfeldklassifikation in den Kern des KDSF. Dadurch können Hochschulen und Forschungseinrichtungen zukünftig nicht nur ihre Forschungsaktivitäten entlang von Forschungsdisziplinen ausweisen, sondern auch interdisziplinäre bzw. gegenstands- und problembezogene Forschung abbilden. Dazu gehören zum Beispiel Forschung zu Nachhaltigkeit oder zur Digitalen Wirtschaft. Hierfür stehen nun insgesamt 72 Forschungsfelder zur Verfügung. Die Version 1.3 ist auf dem gewohnten Webauftritt des KDSF und das zugehörige Datenmodell nun auch auf Github zu finden. Spezifikation: https://www.kerndatensatz-forschung.de/index.php?id=spezifikation bzw. https://www.kerndatensatz-forschung.de/version1/Spezifikation_KDSF_v1_3.pdf Datenmodell: https://github.com/KFiD-G/KDSF Informationen zur KFiD finden Sie auf einem neuen Webauftritt unter www.kfid-online.de.
    Date
    16.12.2022 9:46:29
  14. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.04
    0.04105145 = product of:
      0.13683817 = sum of:
        0.024490708 = weight(_text_:und in 791) [ClassicSimilarity], result of:
          0.024490708 = score(doc=791,freq=24.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42413816 = fieldWeight in 791, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.011037476 = weight(_text_:des in 791) [ClassicSimilarity], result of:
          0.011037476 = score(doc=791,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.15298408 = fieldWeight in 791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.03188215 = weight(_text_:medien in 791) [ClassicSimilarity], result of:
          0.03188215 = score(doc=791,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.26000705 = fieldWeight in 791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.025715698 = weight(_text_:im in 791) [ClassicSimilarity], result of:
          0.025715698 = score(doc=791,freq=10.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.34918293 = fieldWeight in 791, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.019221423 = weight(_text_:computer in 791) [ClassicSimilarity], result of:
          0.019221423 = score(doc=791,freq=2.0), product of:
            0.09520975 = queryWeight, product of:
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.026052676 = queryNorm
            0.20188503 = fieldWeight in 791, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.6545093 = idf(docFreq=3109, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
        0.024490708 = weight(_text_:und in 791) [ClassicSimilarity], result of:
          0.024490708 = score(doc=791,freq=24.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42413816 = fieldWeight in 791, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=791)
      0.3 = coord(6/20)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  15. Suchsland, R.: Kritik der paranoiden Vernunft (2020) 0.04
    0.039455373 = product of:
      0.15782149 = sum of:
        0.024490708 = weight(_text_:und in 322) [ClassicSimilarity], result of:
          0.024490708 = score(doc=322,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42413816 = fieldWeight in 322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        0.022074953 = weight(_text_:des in 322) [ClassicSimilarity], result of:
          0.022074953 = score(doc=322,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.30596817 = fieldWeight in 322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        0.0637643 = weight(_text_:medien in 322) [ClassicSimilarity], result of:
          0.0637643 = score(doc=322,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.5200141 = fieldWeight in 322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        0.02300082 = weight(_text_:im in 322) [ClassicSimilarity], result of:
          0.02300082 = score(doc=322,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.3123187 = fieldWeight in 322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        0.024490708 = weight(_text_:und in 322) [ClassicSimilarity], result of:
          0.024490708 = score(doc=322,freq=6.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.42413816 = fieldWeight in 322, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
      0.25 = coord(5/20)
    
    Abstract
    Allgemeine Verunsicherung im Informationsdschungel: Schwarze Utopien und neue Ordnung am Abgrund des Chaos.
    Footnote
    Zu Verschwörungstheorien und Fake News. Mit einer Zusammenstellung von Beispielen aus der Geschichte.
    Series
    Telepolis: Kultur und Medien
  16. Seemann, M.: ¬Die Macht der Plattformen : Politik in Zeiten der Internetgiganten (2021) 0.04
    0.039280046 = product of:
      0.19640023 = sum of:
        0.020392591 = weight(_text_:und in 553) [ClassicSimilarity], result of:
          0.020392591 = score(doc=553,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3531656 = fieldWeight in 553, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.08065617 = weight(_text_:medien in 553) [ClassicSimilarity], result of:
          0.08065617 = score(doc=553,freq=20.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.65777165 = fieldWeight in 553, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.074958876 = weight(_text_:allgemeines in 553) [ClassicSimilarity], result of:
          0.074958876 = score(doc=553,freq=8.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.5042929 = fieldWeight in 553, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
        0.020392591 = weight(_text_:und in 553) [ClassicSimilarity], result of:
          0.020392591 = score(doc=553,freq=26.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3531656 = fieldWeight in 553, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=553)
      0.2 = coord(4/20)
    
    Abstract
    Plattformen sind mehr als Unternehmen, sie sind die Herrschaftszentren unserer Zeit. Facebook, Google und Amazon ersetzen Marktplätze und öffentlichen Räume, doch sie entscheiden darüber, wer sich dort aufhalten darf und welche Regeln gelten. Von Staaten sind sie kaum zu kontrollieren, sie agieren selbst wie welche. Mehr noch: Plattformen stellen gängige Konzepte von Kapitalismus, Eigentum und Demokratie in Frage. Michael Seemann zeigt, was Plattformen ausmacht, woher ihre Macht kommt, wie sich mit ihnen umgehen lässt und welche Zukunft sie haben
    BK
    05.38 Neue elektronische Medien Kommunikationswissenschaft
    05.20 Kommunikation und Gesellschaft
    Classification
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    MS 7965: Internet, neue Medien / Soziologie / Spezielle Soziologien
    05.38 Neue elektronische Medien Kommunikationswissenschaft
    05.20 Kommunikation und Gesellschaft
    RSWK
    Monopol / Monopolkapitalismus / Internet / Neue Medien / Massenkommunikation / Plattform-Unternehmen / Internethändler / Unternehmen / Plattform-Kapitalismus / Kapitalismus / Politische Ökonomie / Google / Amazon / Facebook
    RVK
    AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
    MS 7965: Internet, neue Medien / Soziologie / Spezielle Soziologien
    Subject
    Monopol / Monopolkapitalismus / Internet / Neue Medien / Massenkommunikation / Plattform-Unternehmen / Internethändler / Unternehmen / Plattform-Kapitalismus / Kapitalismus / Politische Ökonomie / Google / Amazon / Facebook
  17. Boczkowski, P.; Mitchelstein, E.: ¬The digital environment : How we live, learn, work, and play now (2021) 0.04
    0.038904168 = product of:
      0.12968056 = sum of:
        0.004961554 = product of:
          0.014884662 = sum of:
            0.014884662 = weight(_text_:p in 1003) [ClassicSimilarity], result of:
              0.014884662 = score(doc=1003,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.15890071 = fieldWeight in 1003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1003)
          0.33333334 = coord(1/3)
        0.007998631 = weight(_text_:und in 1003) [ClassicSimilarity], result of:
          0.007998631 = score(doc=1003,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.13852294 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.05101144 = weight(_text_:medien in 1003) [ClassicSimilarity], result of:
          0.05101144 = score(doc=1003,freq=8.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.4160113 = fieldWeight in 1003, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.05300393 = weight(_text_:allgemeines in 1003) [ClassicSimilarity], result of:
          0.05300393 = score(doc=1003,freq=4.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.35658893 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.007998631 = weight(_text_:und in 1003) [ClassicSimilarity], result of:
          0.007998631 = score(doc=1003,freq=4.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.13852294 = fieldWeight in 1003, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1003)
        0.0047063706 = product of:
          0.014119112 = sum of:
            0.014119112 = weight(_text_:22 in 1003) [ClassicSimilarity], result of:
              0.014119112 = score(doc=1003,freq=2.0), product of:
                0.09123203 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.026052676 = queryNorm
                0.15476047 = fieldWeight in 1003, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1003)
          0.33333334 = coord(1/3)
      0.3 = coord(6/20)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    MS 7965: MN-MS Soziologie / MS Spezielle Soziologien / Internet, neue Medien
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Date
    22. 6.2023 18:25:18
    RSWK
    Medieninformatik / Neue Medien / Gesellschaft
    RVK
    MS 7965: MN-MS Soziologie / MS Spezielle Soziologien / Internet, neue Medien
    SR 850: SQ-SU Informatik / SR Allgemeines, Organisation, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    Subject
    Medieninformatik / Neue Medien / Gesellschaft
  18. Griesbaum, J.; März, S.; Woltermann, T.: Wie man Fake News und eigene Vorurteile überwindet : Die Pandemie trifft die Armen, die Bildungswilligen und die ländlichen Räume am Schlimmsten. "Intercultural Perspectives on Information Literacy": Ein deutsch-indischer Vergleich (2021) 0.04
    0.03794541 = product of:
      0.12648469 = sum of:
        0.006201943 = product of:
          0.018605828 = sum of:
            0.018605828 = weight(_text_:p in 217) [ClassicSimilarity], result of:
              0.018605828 = score(doc=217,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.19862589 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
        0.022356857 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.022356857 = score(doc=217,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.022074953 = weight(_text_:des in 217) [ClassicSimilarity], result of:
          0.022074953 = score(doc=217,freq=8.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.30596817 = fieldWeight in 217, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.019919295 = weight(_text_:im in 217) [ClassicSimilarity], result of:
          0.019919295 = score(doc=217,freq=6.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.27047595 = fieldWeight in 217, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.022356857 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.022356857 = score(doc=217,freq=20.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.3871834 = fieldWeight in 217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
        0.033574793 = weight(_text_:deutschland in 217) [ClassicSimilarity], result of:
          0.033574793 = score(doc=217,freq=2.0), product of:
            0.12583323 = queryWeight, product of:
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.026052676 = queryNorm
            0.26681978 = fieldWeight in 217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.829954 = idf(docFreq=959, maxDocs=44218)
              0.0390625 = fieldNorm(doc=217)
      0.3 = coord(6/20)
    
    Abstract
    Die Online-Tagung im Rahmen des transnationalen Projektkurses "Intercultural perspectives on information literacy" wurde von Professor Dr. Joachim Griesbaum (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Tessy Thadathil (Symbiosis College of Arts and Commerce Pune, Indien), Sophie März (Stiftung Universität Hildesheim, Institut für Informationswissenschaft), Dr. Jini M. Jacob (Symbiosis College of Arts and Commerce Pune, Indien) und Theresia Woltermann (Stiftung Universität Hildesheim, Institut für Informationswissenschaft) organisiert. Der Einladung nach Hildesheim folgten rund 150 internationale Teilnehmende, unter anderem aus Indien, den USA, Niederlande, Südafrika, Bosnien und Herzegowina und Deutschland. Ziel der Tagung war es, die Ergebnisse des Projektkurses vorzustellen und einen Diskursraum für eine interkulturellen Perspektive der Informationskompetenz zu schaffen. Die zahlreichen Beiträge der teilnehmenden Studierenden und Angehörigen unterschiedlicher Fachrichtungen führten zu einem regen Diskurs.
    Content
    Im Rahmen des Projektkurses erarbeiteten die Teilnehmenden Vorträge zu folgenden Themen: - Informationsverhalten in Corona-Zeiten - Der Bestätigungsfehler (confirmation bias): "Was ich glaube, ist sicher wahr." Wie man kognitive Fehler korrigiert, um einen offenen Geist zu fördern. - Auswirkungen der Pandemie auf den Bildungssektor - Kultivierung von Informationskompetenz in ländlichen Umgebungen. Die Vorträge wurden auf der Tagung von den Studierenden präsentiert und im Plenum diskutiert. Ergänzend wurden mit Dr. Thomas P. Mackey und Trudi E. Jacobson renommierte ExpertInnen für eine Keynote zum Thema "Metaliteracy und offene Lernumgebungen" gewonnen. Schließlich wurde ein Workshop zu kulturellen Aspekten von Informationskompetenz durchgeführt, in dem auch Möglichkeiten zur Weiterentwicklung des Projekts diskutiert wurden. Nachfolgend werden die einzelnen Sessions der Tagung vorgestellt.
  19. Reus, G.: Sprache in den Medien (2020) 0.04
    0.036331244 = product of:
      0.18165621 = sum of:
        0.022132158 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.022132158 = score(doc=219,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38329202 = fieldWeight in 219, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.04463501 = weight(_text_:medien in 219) [ClassicSimilarity], result of:
          0.04463501 = score(doc=219,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.3640099 = fieldWeight in 219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.092756875 = weight(_text_:allgemeines in 219) [ClassicSimilarity], result of:
          0.092756875 = score(doc=219,freq=4.0), product of:
            0.14864154 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.026052676 = queryNorm
            0.62403065 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
        0.022132158 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.022132158 = score(doc=219,freq=10.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.38329202 = fieldWeight in 219, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=219)
      0.2 = coord(4/20)
    
    Abstract
    Seit es Massenmedien gibt, machen Kulturkritiker sie verantwortlich für einen vermeintlichen Verfall der Sprache. Doch eine solche Anschuldigung ist unhaltbar. Sprache verändert sich ständig, weil sich die Gesellschaft wandelt. Massenmedien greifen diese Veränderungen in Wortschatz und Syntax auf und spiegeln sie in die Gesellschaft zurück. Motor und Ursprung von "Sprachverderb" aber sind sie keineswegs. Vielmehr erschließen sie der Gesellschaft Vielfalt und Reichtum von Ausdrucksmöglichkeiten. Sie machen Sprache als Kulturleistung zugänglich und die Welt mit Sprache verständlich.
    BK
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
    Classification
    05.30 (Massenkommunikation / Massenmedien: Allgemeines)
  20. Nowak, P.: Können wir der Corona-App vertrauen? (2020) 0.04
    0.035885617 = product of:
      0.119618714 = sum of:
        0.009923108 = product of:
          0.029769324 = sum of:
            0.029769324 = weight(_text_:p in 5862) [ClassicSimilarity], result of:
              0.029769324 = score(doc=5862,freq=2.0), product of:
                0.09367272 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.026052676 = queryNorm
                0.31780142 = fieldWeight in 5862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5862)
          0.33333334 = coord(1/3)
        0.011311773 = weight(_text_:und in 5862) [ClassicSimilarity], result of:
          0.011311773 = score(doc=5862,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.19590102 = fieldWeight in 5862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5862)
        0.017659962 = weight(_text_:des in 5862) [ClassicSimilarity], result of:
          0.017659962 = score(doc=5862,freq=2.0), product of:
            0.072147876 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.026052676 = queryNorm
            0.24477452 = fieldWeight in 5862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5862)
        0.05101144 = weight(_text_:medien in 5862) [ClassicSimilarity], result of:
          0.05101144 = score(doc=5862,freq=2.0), product of:
            0.12262032 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.026052676 = queryNorm
            0.4160113 = fieldWeight in 5862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0625 = fieldNorm(doc=5862)
        0.018400656 = weight(_text_:im in 5862) [ClassicSimilarity], result of:
          0.018400656 = score(doc=5862,freq=2.0), product of:
            0.073645346 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.026052676 = queryNorm
            0.24985497 = fieldWeight in 5862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=5862)
        0.011311773 = weight(_text_:und in 5862) [ClassicSimilarity], result of:
          0.011311773 = score(doc=5862,freq=2.0), product of:
            0.05774229 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.026052676 = queryNorm
            0.19590102 = fieldWeight in 5862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5862)
      0.3 = coord(6/20)
    
    Abstract
    Die technikkritische Gruppe Capulcu gehört zu den wenigen, die die Frage 'Können wir der Corona-App vertrauen?' verneinen: https://capulcu.blackblogs.org. Beitrag im Kontext der Diskussion um eine Bluetooth Smartphone-App zur Verminderung der Infektionsausbreitung des Corona-Virus mit Stellungnahmen von Capulcu.
    Series
    Telepolis: Kultur und Medien

Languages

  • d 438
  • e 287
  • pt 3
  • m 2
  • More… Less…

Types

  • a 593
  • el 251
  • m 58
  • p 14
  • s 7
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications