Search (555 results, page 2 of 28)

  • × type_ss:"a"
  • × year_i:[2020 TO 2030}
  1. Wiegmann, S.: Hättest du die Titanic überlebt? : Eine kurze Einführung in das Data Mining mit freier Software (2023) 0.01
    0.012766338 = product of:
      0.08085348 = sum of:
        0.012576545 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.012576545 = score(doc=876,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.012576545 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.012576545 = score(doc=876,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.025267214 = sum of:
          0.009426949 = weight(_text_:4 in 876) [ClassicSimilarity], result of:
            0.009426949 = score(doc=876,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.2098769 = fieldWeight in 876, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0546875 = fieldNorm(doc=876)
          0.015840266 = weight(_text_:29 in 876) [ClassicSimilarity], result of:
            0.015840266 = score(doc=876,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.27205724 = fieldWeight in 876, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=876)
        0.012576545 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.012576545 = score(doc=876,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.012576545 = weight(_text_:und in 876) [ClassicSimilarity], result of:
          0.012576545 = score(doc=876,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 876, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=876)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 876) [ClassicSimilarity], result of:
              0.015840266 = score(doc=876,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 876, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=876)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Am 10. April 1912 ging Elisabeth Walton Allen an Bord der "Titanic", um ihr Hab und Gut nach England zu holen. Eines Nachts wurde sie von ihrer aufgelösten Tante geweckt, deren Kajüte unter Wasser stand. Wie steht es um Elisabeths Chancen und hätte man selbst das Unglück damals überlebt? Das Titanic-Orakel ist eine algorithmusbasierte App, die entsprechende Prognosen aufstellt und im Rahmen des Kurses "Data Science" am Department Information der HAW Hamburg entstanden ist. Dieser Beitrag zeigt Schritt für Schritt, wie die App unter Verwendung freier Software entwickelt wurde. Code und Daten werden zur Nachnutzung bereitgestellt.
    Date
    28. 1.2022 11:05:29
    Source
    API Magazin. 4(2023), Nr.1 [https://journals.sub.uni-hamburg.de/hup3/apimagazin/article/view/130]
  2. Zweig, K.; Luttenberger, J.: KI ist keine Magie (2020) 0.01
    0.011931273 = product of:
      0.075564735 = sum of:
        0.010163383 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.010163383 = score(doc=5503,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.010163383 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.010163383 = score(doc=5503,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.028876819 = sum of:
          0.010773656 = weight(_text_:4 in 5503) [ClassicSimilarity], result of:
            0.010773656 = score(doc=5503,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.23985931 = fieldWeight in 5503, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=5503)
          0.018103162 = weight(_text_:29 in 5503) [ClassicSimilarity], result of:
            0.018103162 = score(doc=5503,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.31092256 = fieldWeight in 5503, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=5503)
        0.010163383 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.010163383 = score(doc=5503,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.010163383 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.010163383 = score(doc=5503,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 5503, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5503)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 5503) [ClassicSimilarity], result of:
              0.018103162 = score(doc=5503,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 5503, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5503)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Thema "Künstliche Intelligenz" (KI) wird immer wichtiger. Die Kaiserslauterer Informatikprofessorin Katharina Zweig ist Kl-Expertinund Autorin des Erklärbuchs "Ein Algorithmus hat kein Taktgefühl". Im großen RHEINPFALZ-Gespräch erläutert sie, wie Kl und Datenschutz zusammengehen können - durch dezentrales Lernen. Die Daten bleiben dadurch beim Nutzer. "KI wird insgesamt näher an uns heranrücken, darum müssen wir Betriebsräte, Schulelternbeiräte, Betroffene und Bürger befähigen, sich einmischen zu können",
    Date
    6. 1.2020 16:29:35
    Source
    ¬Die Rheinpfalz. Nr.4 vom 06.01.2020, S
  3. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.01
    0.011812492 = product of:
      0.07481246 = sum of:
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.015840266 = score(doc=540,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.015840266 = score(doc=540,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
  4. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.011746194 = product of:
      0.074392565 = sum of:
        0.01205229 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.01205229 = score(doc=881,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.01205229 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.01205229 = score(doc=881,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.021657612 = sum of:
          0.008080241 = weight(_text_:4 in 881) [ClassicSimilarity], result of:
            0.008080241 = score(doc=881,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.17989448 = fieldWeight in 881, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.046875 = fieldNorm(doc=881)
          0.013577371 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
            0.013577371 = score(doc=881,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.23319192 = fieldWeight in 881, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=881)
        0.01205229 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.01205229 = score(doc=881,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.01205229 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.01205229 = score(doc=881,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 881) [ClassicSimilarity], result of:
              0.013577371 = score(doc=881,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 881, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=881)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
    Date
    28. 1.2022 11:05:29
    Source
    API Magazin. 4(2023), Nr.1 [https://journals.sub.uni-hamburg.de/hup3/apimagazin/article/view/132]
  5. Hubert, M.; Griesbaum, J.; Womser-Hacker, C.: Usability von Browsererweiterungen zum Schutz vor Tracking (2020) 0.01
    0.01096488 = product of:
      0.06944424 = sum of:
        0.014061006 = weight(_text_:und in 5866) [ClassicSimilarity], result of:
          0.014061006 = score(doc=5866,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38329202 = fieldWeight in 5866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
        0.014061006 = weight(_text_:und in 5866) [ClassicSimilarity], result of:
          0.014061006 = score(doc=5866,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38329202 = fieldWeight in 5866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5866) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5866,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5866)
          0.5 = coord(1/2)
        0.014061006 = weight(_text_:und in 5866) [ClassicSimilarity], result of:
          0.014061006 = score(doc=5866,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38329202 = fieldWeight in 5866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
        0.014061006 = weight(_text_:und in 5866) [ClassicSimilarity], result of:
          0.014061006 = score(doc=5866,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38329202 = fieldWeight in 5866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5866)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5866) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5866,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5866, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5866)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.
    Date
    11. 7.2020 18:50:29
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  6. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung (2020) 0.01
    0.0109425755 = product of:
      0.06930298 = sum of:
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.021657612 = sum of:
          0.008080241 = weight(_text_:4 in 5911) [ClassicSimilarity], result of:
            0.008080241 = score(doc=5911,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.17989448 = fieldWeight in 5911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.046875 = fieldNorm(doc=5911)
          0.013577371 = weight(_text_:29 in 5911) [ClassicSimilarity], result of:
            0.013577371 = score(doc=5911,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.23319192 = fieldWeight in 5911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5911) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5911,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5911, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5911)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Information als "Wissen in Aktion" zu definieren, scheint der Informationswissenschaft zu reichen. Und das in einer Welt, wie das Fachportal woxiwon (https://synonyme.woxikon.de/synonyme/information.php) ausweist, bei über 460 Synonyma für den Begriff "Information", die in fast dreißig Gruppen geclustert sind. Cluster 1: "Aufmerksamkeit" mit den Dimensionen der Nutzererwartungen "Aktualität", "Werbung", "Schlagzeilen" sowie "Provokation durch Fake & Klatsch". Cluster 2: "Verbundenheit" Cluster 3: "Gemeinsamkeit" Cluster 4: "Intellektuelle Leistung"
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff. Unter: Open Password. 2020, Nr.759 vom 25. Mai 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ]. Weitere Fortsetzung als: Informationskompetenz in den Bibliotheken und in der Informationswissenschaft - Das Verlangen nach einer verständlichen Wissenschaftssprache. In: Open Password. 2020, Nr.784 vom 09. Juli 2020. Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzExNiwiM2Y4YjgwNDBiM2QxIiwwLDAsMTA2LDFd.
    Source
    Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ]
  7. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : das Verlangen nach einer verständlichen Wissenschaftssprache (2020) 0.01
    0.010793103 = product of:
      0.06835632 = sum of:
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5684,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.5 = coord(1/2)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5684,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Informationskompetenz in den Bibliotheken und in der Informationswissenschaft. Es ist erschreckend, dass im Zeitalter der vieldiskutierten "Desinformationen" und "Fake News" im Medienbereich der einzige Beitrag der Informationswissenschaft in der Betonung einer irgendwie ausgestalteten "Informationskompetenz", manchmal ergänzt um eine ebenso imaginäre "Medienkompetenz" besteht. Man möchte sich gern zum verbindlichen Entscheider darüber erklären, was wahre und falsche Information, was Hate Speech und Fakten sind. Der Türöffner dafür soll das bibliothekarisch besetzte Feld der "Informationskompetenz" sein, dass man nunmehr für den Gesamtbereich der "Information" besetzen möchte. Die ursprüngliche Beschränkung der bibliothekarischen Domäne der Informationskompetenz auf eine berufsrelevante Vermittlung von InformationsSUCHkompetenz wird dafür geopfert. Der Ursprung des Begriffes "Informationskompetenz" liegt im Bibliotheksbereich und sollte dort beheimatet bleiben.
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
  8. Elbeshausen, S.: Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung (2023) 0.01
    0.010793103 = product of:
      0.06835632 = sum of:
        0.014260462 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.014260462 = score(doc=809,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=809)
        0.014260462 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.014260462 = score(doc=809,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=809)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 809) [ClassicSimilarity], result of:
              0.013577371 = score(doc=809,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 809, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=809)
          0.5 = coord(1/2)
        0.014260462 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.014260462 = score(doc=809,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=809)
        0.014260462 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.014260462 = score(doc=809,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=809)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 809) [ClassicSimilarity], result of:
              0.013577371 = score(doc=809,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 809, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=809)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Informationssysteme, deren Reichweite und Nutzung sind mittlerweile allgegenwärtig und ein Alltag ohne sie scheint kaum mehr vorstellbar. Die Anwender*innen unterscheiden sich in Hinblick auf ihre Computererfahrung, ihr technisches Verständnis, ihre Motivation sowie die Aufgaben, die mit der Nutzung bewältigt werden sollen. So muss ein Smartphone der Teenagerin die Möglichkeit bieten zu chatten, aber auch dem Vater den nächstgelegenen Spielplatz zu finden, der Managerin die schnellste Route zum Bahnhof zu ermitteln oder dem Senior den Yogakurs zu buchen. Deutlich wird schon anhand dieser Minimalbeispiele die Notwendigkeit für Informationssysteme, die an die Bedürfnisse und Voraussetzungen der vielfältigen Nutzenden angepasst sind. Ziel aus Sicht der Informationswissenschaft ist es, eine möglichst einfache und effiziente Nutzung zu ermöglichen. Darüber hinaus sollten Systeme idealerweise adaptiv gestaltet sein und den Anwender*innen die Möglichkeit zur Adaptierbarkeit bieten. Aus diesem Spannungsfeld ergibt sich die Notwendigkeit für die Modellierung von Benutzer*innen, die Personalisierung und die Kontextualisierung.
    Date
    25.11.2022 19:01:29
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Busch, A.: Terminologiemanagement : erfolgreicher Wissenstransfer durch Concept-Maps und die Überlegungen in DGI-AKTS (2021) 0.01
    0.010716134 = product of:
      0.08144262 = sum of:
        0.019013947 = weight(_text_:und in 422) [ClassicSimilarity], result of:
          0.019013947 = score(doc=422,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 422, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=422)
        0.019013947 = weight(_text_:und in 422) [ClassicSimilarity], result of:
          0.019013947 = score(doc=422,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 422, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=422)
        0.005386828 = product of:
          0.010773656 = sum of:
            0.010773656 = weight(_text_:4 in 422) [ClassicSimilarity], result of:
              0.010773656 = score(doc=422,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23985931 = fieldWeight in 422, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0625 = fieldNorm(doc=422)
          0.5 = coord(1/2)
        0.019013947 = weight(_text_:und in 422) [ClassicSimilarity], result of:
          0.019013947 = score(doc=422,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 422, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=422)
        0.019013947 = weight(_text_:und in 422) [ClassicSimilarity], result of:
          0.019013947 = score(doc=422,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51830536 = fieldWeight in 422, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=422)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Organisation eines effektiven und effizienten Wissenstransfers ist eine große Herausforderung moderner Fachkommunikation. Durch die Aufbereitung von Begriffen und Begriffsbeziehungen in Begriffssystemen und deren übersichtliche und verständliche Visualisierung in einer Concept-Map macht das Terminologiemanagement Wissen einfach und schnell verfügbar. So kann es effizienter für die Fachkommunikation genutzt werden.
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.4, S.185-193
  10. Müller, P.: Text-Automat mit Tücken (2023) 0.01
    0.0103813475 = product of:
      0.065748535 = sum of:
        0.010779895 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.010779895 = score(doc=481,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=481)
        0.010779895 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.010779895 = score(doc=481,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=481)
        0.013577371 = product of:
          0.027154742 = sum of:
            0.027154742 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.027154742 = score(doc=481,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.5 = coord(1/2)
        0.010779895 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.010779895 = score(doc=481,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=481)
        0.010779895 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.010779895 = score(doc=481,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=481)
        0.009051581 = product of:
          0.027154742 = sum of:
            0.027154742 = weight(_text_:29 in 481) [ClassicSimilarity], result of:
              0.027154742 = score(doc=481,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 481, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=481)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Ein Coputerprogramm erstaunt derzeit viele Menschen: ChatGPT zeigt, was künstliche Intelligenz zu leisten vermag - und welche Risiken die Technologie mit sich bringt.
    Source
    Pirmasenser Zeitung. Nr. 29 vom 03.02.2023, S.2
  11. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0103451675 = product of:
      0.07862327 = sum of:
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.03317124 = weight(_text_:einzelner in 935) [ClassicSimilarity], result of:
          0.03317124 = score(doc=935,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.29760545 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.13157895 = coord(5/38)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  12. Becker, H.-G.: ¬Der Katalog als virtueller Navigationsraum (2020) 0.01
    0.010296016 = product of:
      0.055892657 = sum of:
        0.0053899474 = weight(_text_:und in 49) [ClassicSimilarity], result of:
          0.0053899474 = score(doc=49,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.14692576 = fieldWeight in 49, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=49)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 49) [ClassicSimilarity], result of:
              0.030292748 = score(doc=49,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 49, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=49)
          0.5 = coord(1/2)
        0.0053899474 = weight(_text_:und in 49) [ClassicSimilarity], result of:
          0.0053899474 = score(doc=49,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.14692576 = fieldWeight in 49, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=49)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 49) [ClassicSimilarity], result of:
              0.008080241 = score(doc=49,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 49, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=49)
          0.5 = coord(1/2)
        0.0053899474 = weight(_text_:und in 49) [ClassicSimilarity], result of:
          0.0053899474 = score(doc=49,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.14692576 = fieldWeight in 49, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=49)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 49) [ClassicSimilarity], result of:
              0.030292748 = score(doc=49,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 49, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=49)
          0.5 = coord(1/2)
        0.0053899474 = weight(_text_:und in 49) [ClassicSimilarity], result of:
          0.0053899474 = score(doc=49,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.14692576 = fieldWeight in 49, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=49)
      0.18421052 = coord(7/38)
    
    Abstract
    Der Katalog der Universitätsbibliothek Dortmund stellt nicht nur einen Verfügbarkeitsraum für alle relevanten Informationen dar, vielmehr soll er darüber hinaus ein Navigationsraum für eine zeitgemäße inhaltliche Suche sein. Die Aufgabe war daher, eine automatisierte Lösung mit einer maximalen Abdeckung der eigenen Bestände zu finden, die für möglichst viele Fächer eine anerkannte Systematik bereitstellt.Mittels der unter einer offenen Lizenz veröffentlichten CultureGraph-Daten der Deutschen Nationalbibliothek wurde eine navigationsfähige Systematik auf Basis der Regensburger Verbundklassifikation entwickelt, aus der heraus sowohl auf die gedruckt als auch auf die elektronisch verfügbaren Bestände der Universitätsbibliothek (UB) zugegriffen werden kann. Ferner wurde eine direkte Einbindung in das Discovery-System realisiert, in der die Systematik mit anderen Navigatoren und Suchfiltern kombiniert werden kann. Das so entstandene Suchinstrument führt dazu, dass in der UB Dortmund künftig auf die systematische Buchaufstellung verzichtet werden kann.
    Source
    B.I.T. Online. 23(2020) H.4, S.381-388
    Theme
    Katalogfragen allgemein
  13. Herb, U.: Sci-hub = Spy-Hub? (2020) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5333) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5333,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5333)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5333) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5333,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5333)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Phishing-Verdacht gegen die Schattenbibliothek. Wieder einmal drohen der Schattenbibliothek Sci-Hub, die kostenpflichtige Verlagspublikationen wissenschaftlicher Art unter Umgehung des Copyrights kostenlos verbreitet, juristische Widrigkeiten. Bereits 2017 gestand ein New Yorker Gericht Elsevier, neben Wiley und Springer Nature einer der drei größten Wissenschaftsverlage, 15 Millionen US-Dollar Schadensersatz für Urheberrechtsverletzungen zu, basierend auf einer durch Elsevier dem Gericht vorgelegten Liste von 100 Artikeln, die von den Schattenbibliotheken Sci-Hub und LibGen illegal zur Verfügung gestellt wurden. Dieses und andere Urteile ließen sich jedoch mangels Zugriffes auf Sci-Hub und dessen Verantwortliche außerhalb des juristischen Einflussbereiches der USA nicht durchsetzen.
    Date
    29. 6.2019 17:46:17
  14. Verch, U.: ¬Das Bildzitat - Fotos und Abbildungen richtig zitieren (2022) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.012576545 = score(doc=629,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=629)
        0.012576545 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.012576545 = score(doc=629,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=629)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 629) [ClassicSimilarity], result of:
              0.015840266 = score(doc=629,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=629)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.012576545 = score(doc=629,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=629)
        0.012576545 = weight(_text_:und in 629) [ClassicSimilarity], result of:
          0.012576545 = score(doc=629,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 629, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=629)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 629) [ClassicSimilarity], result of:
              0.015840266 = score(doc=629,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 629, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=629)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In welchem Referat oder auf welcher Website werden keine Fotos gezeigt? Im Studium nutzen Studierende regelmäßig fremdes Bildmaterial, um ihre Vorträge oder die eigenen Ausführungen in der Abschlussarbeit zu illustrieren, denn bekanntlich sagt ein Bild mehr als tausend Worte. Doch wie sind die Voraussetzungen, um Abbildungen richtig zu zitieren, und wann besteht die Gefahr, dass Plagiatsvorwürfe erhoben werden? Der Beitrag bietet eine Übersicht über die rechtlichen Rahmenbedingungen der Zitierfreiheit im Allgemeinen und die genauen Voraussetzungen, die beim Zitieren von Abbildungen im Speziellen zu beachten sind. Auch die gesetzlichen Neuregelungen im Urheberrecht zur Zitierung von Reproduktionen sowie zur Nutzung von Karikaturen und Parodien werden neben einem aktuellen Hamburger Fallbeispiel erläutert.
    Date
    28. 1.2022 11:05:29
  15. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff (2020) 0.01
    0.009826479 = product of:
      0.062234364 = sum of:
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.01120076 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 326) [ClassicSimilarity], result of:
              0.02240152 = score(doc=326,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 326, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=326)
          0.5 = coord(1/2)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.007467173 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 326) [ClassicSimilarity], result of:
              0.02240152 = score(doc=326,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 326, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=326)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Informationswissenschaft, eine Disziplin ohne Theorie, ohne Bezugsrahmen und ohne Klärung ihres Grundbegriffes. Zahlreiche FachvertreterInnen der Informationswissenschaft bereiten erst recht das Feld für Hate Speech und Fake News vor - mit ihrem ungeklärten (Un)begriff der "Information", - mit ihrer Forderung nach "Informationskompetenz", ein Terrain, das eigentlich der Bibliothekswissenschaft zusteht, - mit ihrer Theorielosigkeit, - mit ihrer unkritischen Ablehnung einer ernsthaften Auseinandersetzung sowie - mit ihrem ungeklärten Domänenverständnis.
    Content
    Fortsetzung als: Wie man mit Information umgehen sollte - Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
    Date
    29. 6.2020 11:11:10
  16. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.01
    0.009789276 = product of:
      0.053141784 = sum of:
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
              0.015146374 = score(doc=405,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.5 = coord(1/2)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
              0.015146374 = score(doc=405,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.5 = coord(1/2)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.002242539 = product of:
          0.006727617 = sum of:
            0.006727617 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
              0.006727617 = score(doc=405,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.116070345 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Footnote
    Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
    Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  17. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.01
    0.009398469 = product of:
      0.05952364 = sum of:
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
              0.013577371 = score(doc=537,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
              0.013577371 = score(doc=537,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
    Date
    29. 9.2021 14:01:02
  18. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.01
    0.00917275 = product of:
      0.06971289 = sum of:
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.0074751303 = product of:
          0.02242539 = sum of:
            0.02242539 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.02242539 = score(doc=236,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  19. Franz, S.; Lopatka, T.; Kunze, G.; Meyn, N.; Strupler, N.: Un/Doing Classification : Bibliothekarische Klassifikationssysteme zwischen Universalitätsanspruch und reduktionistischer Wissensorganisation (2022) 0.01
    0.009166541 = product of:
      0.06966571 = sum of:
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.005386828 = product of:
          0.010773656 = sum of:
            0.010773656 = weight(_text_:4 in 675) [ClassicSimilarity], result of:
              0.010773656 = score(doc=675,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23985931 = fieldWeight in 675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0625 = fieldNorm(doc=675)
          0.5 = coord(1/2)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
      0.13157895 = coord(5/38)
    
    Abstract
    Der multiperspektivische Beitrag analysiert mit einem intersektionalen und qualitativen Ansatz diskriminierende Begriffe, Auslassungen und implizit abwertende Strukturen bibliothekarischer Klassifikationen des Globalen Nordens. Am Beispiel der Regensburger Verbundklassifikation (RVK) werden rassistische und sexistische Schnitt- sowie Leerstellen in der Repräsentation queerer Lebens-, Liebes- und Lustentwürfe aufgezeigt. Mögliche Lösungen unter Einbeziehung der Communitys runden den Beitrag ab.
    Source
    027.7 Zeitschrift für Bibliothekskultur. 9(2022), H.4
  20. Hapke, T.: Zu einer ganzheitlichen Informationskompetenz gehört eine kritische Wissenschaftskompetenz : Informationskompetenz und Demokratie (2020) 0.01
    0.0090420395 = product of:
      0.0687195 = sum of:
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 5685) [ClassicSimilarity], result of:
              0.008080241 = score(doc=5685,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 5685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5685)
          0.5 = coord(1/2)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
      0.13157895 = coord(5/38)
    
    Abstract
    1. Was ist Informationskompetenz? Was macht Informationskompetenz im Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? 2. Wie soll man Informationskompetenz vermitteln? Wie soll Informationskompetenz am besten vermittelt werden? Wie werden Menschen am besten zu informationskompetentem Verhalten motiviert und geführt? 3. Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? Wie entwickelt sich Informationskompetenz? Welche Bereiche werden künftig wichtiger? 4. Weitere Aspekte des Themas - Welche? Warum sind diese wichtig? Was folgert daraus?
    Footnote
    Leicht veränderte Fassung eines Beitrages, der für das Projekt "Informationskompetenz und Demokratie" erstellt wurde (Daphné Çetta, Joachim Griesbaum, Thomas Mandl, Elke Montanari). Die ursprüngliche Fassung ist enthalten in: Çetta, D., Griesbaum, J., Mandl, T., Montanari, E. (Hg). (2019). Positionspapiere: Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Projekt: Zukunftsdiskurse: Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung, Universität Hildesheim, http://informationskompetenz.blog.uni-hildesheim.de/files/2019/10/Projekt_Informationskompetenz_und_DemokratieKompilation_aller_Positionspapiere.pdf. Die Fragen, die den Beitrag strukturieren und entsprechend hervorgehoben werden, wurden von den Hildesheimer Forschern gestellt.

Languages

  • d 310
  • e 242
  • pt 3
  • More… Less…

Types

  • el 157
  • p 1
  • More… Less…