Search (157 results, page 1 of 8)

  • × type_ss:"a"
  • × type_ss:"el"
  • × year_i:[2020 TO 2030}
  1. Blümig, G.; Klein, D.; Wolf, S.: ¬Das Framework und die Erstsemesterstudierenden der Medizin : ein Erfahrungsbericht aus der Universitätsbibliothek Würzburg (2021) 0.03
    0.027863085 = product of:
      0.17646621 = sum of:
        0.063080005 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.063080005 = score(doc=301,freq=6.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.063080005 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.063080005 = score(doc=301,freq=6.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
      0.15789473 = coord(6/38)
    
    Abstract
    Dieser Artikel schildert die Neukonzeption eines Kurses für Erstsemesterstudierende der Medizin an der Universitätsbibliothek Würzburg unter Einbeziehung des Frameworks for Information Literacy for Higher Education (im Folgenden Framework genannt). Nach einleitenden Bemerkungen zur Theorie der Schwellenkonzepte und zum Framework selbst steht der Kursinhalt mit den dazugehörigen Frames, Knowledge Practices und Dispositions im Fokus. Die Auswertung der Evaluation und ein Ausblick auf die Umsetzung des Kurses in der coronabedingten digitalen Lehre bilden den Schluss.
    Field
    Medizin
  2. Widmann, V.: ¬Die Sache mit der Menschenwürde und dem Wert des Lebens (2020) 0.02
    0.022221599 = product of:
      0.1407368 = sum of:
        0.04162201 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04162201 = score(doc=5377,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.04162201 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04162201 = score(doc=5377,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Diskussion um Menschenwürde und Lebensschutz prosperiert in der Corona-Krise. Die Feuilletons renommierter Zeitschriften sind der Austragungsort, Koryphäen aus Juristerei, Philosophie und Politik die Protagonisten der Debatte.
    Field
    Medizin
    Source
    https://www.heise.de/tp/features/Die-Sache-mit-der-Menschenwuerde-und-dem-Wert-des-Lebens-4720866.html?seite=all
  3. Schleim, S.; Amunts, K.: Deutsche Forscher veröffentlichen ersten 3D-Atlas des menschlichen Gehirns (2020) 0.02
    0.02209059 = product of:
      0.16788848 = sum of:
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.1319555 = weight(_text_:3d in 56) [ClassicSimilarity], result of:
          0.1319555 = score(doc=56,freq=4.0), product of:
            0.1182296 = queryWeight, product of:
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.016551789 = queryNorm
            1.1160953 = fieldWeight in 56, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
      0.13157895 = coord(5/38)
    
    Abstract
    Ein Gespräch mit der Spitzenforscherin Katrin Amunts über Erkenntnisfortschritte, Herausforderungen der KI und ein gesundes Gehirn.
    Source
    https://www.heise.de/tp/features/Deutsche-Forscher-veroeffentlichen-ersten-3D-Atlas-des-menschlichen-Gehirns-4992198.html?seite=all
  4. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.021184618 = product of:
      0.115002215 = sum of:
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.030292748 = score(doc=406,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 406) [ClassicSimilarity], result of:
              0.008080241 = score(doc=406,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.030292748 = score(doc=406,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
      0.18421052 = coord(7/38)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  5. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.02
    0.018192982 = product of:
      0.11522223 = sum of:
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.04975686 = weight(_text_:einzelner in 266) [ClassicSimilarity], result of:
          0.04975686 = score(doc=266,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.004485078 = product of:
          0.013455234 = sum of:
            0.013455234 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.013455234 = score(doc=266,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  6. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.01805433 = product of:
      0.1143441 = sum of:
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.035733238 = sum of:
          0.013331719 = weight(_text_:4 in 428) [ClassicSimilarity], result of:
            0.013331719 = score(doc=428,freq=4.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.29681075 = fieldWeight in 428, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0546875 = fieldNorm(doc=428)
          0.02240152 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
            0.02240152 = score(doc=428,freq=4.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.38474706 = fieldWeight in 428, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.007467173 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
              0.02240152 = score(doc=428,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Im abschließenden Teil 4 dieser Reihe zur Kritik des "Informationskompetenz"-Ansatzes der Bibliotheks- und Informationswissenschaft und dessen Eignung für die Aufdeckung und "Bekämpfung" von Desinformationen bzw. Fake News (Open Password - noch einzufügen) werden ausgewählte Forschungsergebnisse vorgestellt. Diese entstammen der Studie "Quelle: Internet? - Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test". Träger der Studie ist die Berliner Stiftung "Neue Verantwortung", ein Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen).
    Date
    29. 9.2021 18:17:40
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
    Source
    Open Password. 2021, Nr.979 vom 29. September 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM1OSwiNWZhNTM1ZjgxZDVlIiwwLDAsMzI2LDFd]
  7. Aleksander, K.: Antrag zur Aufnahme des Sachbegriffs "Gender" in die GemeinsameNormdatei (GND) der Deutschen Nationalbibliothek (DNB) : Inhaltserschließung in Bibliotheken und alternative Zukünfte. (2022) 0.01
    0.0143904695 = product of:
      0.091139644 = sum of:
        0.009335663 = weight(_text_:und in 676) [ClassicSimilarity], result of:
          0.009335663 = score(doc=676,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2544829 = fieldWeight in 676, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=676)
        0.04975686 = weight(_text_:einzelner in 676) [ClassicSimilarity], result of:
          0.04975686 = score(doc=676,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=676)
        0.009335663 = weight(_text_:und in 676) [ClassicSimilarity], result of:
          0.009335663 = score(doc=676,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2544829 = fieldWeight in 676, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=676)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 676) [ClassicSimilarity], result of:
              0.008080241 = score(doc=676,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 676, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=676)
          0.5 = coord(1/2)
        0.009335663 = weight(_text_:und in 676) [ClassicSimilarity], result of:
          0.009335663 = score(doc=676,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2544829 = fieldWeight in 676, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=676)
        0.009335663 = weight(_text_:und in 676) [ClassicSimilarity], result of:
          0.009335663 = score(doc=676,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2544829 = fieldWeight in 676, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=676)
      0.15789473 = coord(6/38)
    
    Abstract
    Zu den Qualitätsanforderungen von Normdateien als Wissensorganisationssysteme gehört neben der eindeutigen Bestimmung des Begriffsumfangs einzelner Konzepte, der konsistenten terminologischen Kontrolle und Anreicherung durch Synonyme auch die Aktualität und Wissenschaftsnähe der Terminologie. Bereits in der sich in der BRD seit den 1970er-Jahren entwickelnden Frauenforschung spielte der Begriff "Geschlecht" eine zentrale Rolle. Der in den 1990er-/2000er-Jahren hier entstehenden Geschlechterforschung gab er ihren Namen.Seit dieser Zeit ist auch der Fachbegriff "Gender" aus der angloamerikanischen Forschung in der deutschen Geschlechterforschung/Gender Studies zur zentralen Kategorie geworden. In der GND ist er als eigenständiger Sachbegriff bisher nicht vorhanden.Da (nicht nur) die Geschlechterforschung/Gender Studies das Schlagwort Gender zur Beschlagwortung ihrer Fachliteratur benötigt, schlagen wir seine Aufnahme in die GND vor.
    Source
    027.7 Zeitschrift für Bibliothekskultur. 9(2022), H.4
  8. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.01
    0.014129968 = product of:
      0.0894898 = sum of:
        0.016169844 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.016169844 = score(doc=299,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.016169844 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.016169844 = score(doc=299,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 299) [ClassicSimilarity], result of:
              0.013577371 = score(doc=299,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.5 = coord(1/2)
        0.016169844 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.016169844 = score(doc=299,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.016169844 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.016169844 = score(doc=299,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.018021736 = product of:
          0.027032604 = sum of:
            0.013577371 = weight(_text_:29 in 299) [ClassicSimilarity], result of:
              0.013577371 = score(doc=299,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
            0.013455234 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.013455234 = score(doc=299,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.6666667 = coord(2/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Date
    30. 6.2021 16:29:52
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  9. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.01
    0.011812492 = product of:
      0.07481246 = sum of:
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.015840266 = score(doc=540,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.015403059 = weight(_text_:und in 540) [ClassicSimilarity], result of:
          0.015403059 = score(doc=540,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.015840266 = score(doc=540,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
  10. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung (2020) 0.01
    0.0109425755 = product of:
      0.06930298 = sum of:
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.021657612 = sum of:
          0.008080241 = weight(_text_:4 in 5911) [ClassicSimilarity], result of:
            0.008080241 = score(doc=5911,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.17989448 = fieldWeight in 5911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.046875 = fieldNorm(doc=5911)
          0.013577371 = weight(_text_:29 in 5911) [ClassicSimilarity], result of:
            0.013577371 = score(doc=5911,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.23319192 = fieldWeight in 5911, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.010779895 = weight(_text_:und in 5911) [ClassicSimilarity], result of:
          0.010779895 = score(doc=5911,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 5911, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5911)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5911) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5911,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5911, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5911)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Information als "Wissen in Aktion" zu definieren, scheint der Informationswissenschaft zu reichen. Und das in einer Welt, wie das Fachportal woxiwon (https://synonyme.woxikon.de/synonyme/information.php) ausweist, bei über 460 Synonyma für den Begriff "Information", die in fast dreißig Gruppen geclustert sind. Cluster 1: "Aufmerksamkeit" mit den Dimensionen der Nutzererwartungen "Aktualität", "Werbung", "Schlagzeilen" sowie "Provokation durch Fake & Klatsch". Cluster 2: "Verbundenheit" Cluster 3: "Gemeinsamkeit" Cluster 4: "Intellektuelle Leistung"
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff. Unter: Open Password. 2020, Nr.759 vom 25. Mai 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ]. Weitere Fortsetzung als: Informationskompetenz in den Bibliotheken und in der Informationswissenschaft - Das Verlangen nach einer verständlichen Wissenschaftssprache. In: Open Password. 2020, Nr.784 vom 09. Juli 2020. Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzExNiwiM2Y4YjgwNDBiM2QxIiwwLDAsMTA2LDFd.
    Source
    Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ]
  11. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : das Verlangen nach einer verständlichen Wissenschaftssprache (2020) 0.01
    0.010793103 = product of:
      0.06835632 = sum of:
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5684,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.5 = coord(1/2)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.014260462 = weight(_text_:und in 5684) [ClassicSimilarity], result of:
          0.014260462 = score(doc=5684,freq=14.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.38872904 = fieldWeight in 5684, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5684)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 5684) [ClassicSimilarity], result of:
              0.013577371 = score(doc=5684,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 5684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5684)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Informationskompetenz in den Bibliotheken und in der Informationswissenschaft. Es ist erschreckend, dass im Zeitalter der vieldiskutierten "Desinformationen" und "Fake News" im Medienbereich der einzige Beitrag der Informationswissenschaft in der Betonung einer irgendwie ausgestalteten "Informationskompetenz", manchmal ergänzt um eine ebenso imaginäre "Medienkompetenz" besteht. Man möchte sich gern zum verbindlichen Entscheider darüber erklären, was wahre und falsche Information, was Hate Speech und Fakten sind. Der Türöffner dafür soll das bibliothekarisch besetzte Feld der "Informationskompetenz" sein, dass man nunmehr für den Gesamtbereich der "Information" besetzen möchte. Die ursprüngliche Beschränkung der bibliothekarischen Domäne der Informationskompetenz auf eine berufsrelevante Vermittlung von InformationsSUCHkompetenz wird dafür geopfert. Der Ursprung des Begriffes "Informationskompetenz" liegt im Bibliotheksbereich und sollte dort beheimatet bleiben.
    Content
    Fortsetzung von: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch: Wie man mit "Information" umgehen sollte: Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
  12. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.01
    0.0103451675 = product of:
      0.07862327 = sum of:
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.03317124 = weight(_text_:einzelner in 935) [ClassicSimilarity], result of:
          0.03317124 = score(doc=935,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.29760545 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
        0.011363008 = weight(_text_:und in 935) [ClassicSimilarity], result of:
          0.011363008 = score(doc=935,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3097467 = fieldWeight in 935, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.13157895 = coord(5/38)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  13. Herb, U.: Sci-hub = Spy-Hub? (2020) 0.01
    0.010027325 = product of:
      0.063506395 = sum of:
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5333) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5333,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5333)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.012576545 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
          0.012576545 = score(doc=5333,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 5333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5333)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 5333) [ClassicSimilarity], result of:
              0.015840266 = score(doc=5333,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 5333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5333)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Phishing-Verdacht gegen die Schattenbibliothek. Wieder einmal drohen der Schattenbibliothek Sci-Hub, die kostenpflichtige Verlagspublikationen wissenschaftlicher Art unter Umgehung des Copyrights kostenlos verbreitet, juristische Widrigkeiten. Bereits 2017 gestand ein New Yorker Gericht Elsevier, neben Wiley und Springer Nature einer der drei größten Wissenschaftsverlage, 15 Millionen US-Dollar Schadensersatz für Urheberrechtsverletzungen zu, basierend auf einer durch Elsevier dem Gericht vorgelegten Liste von 100 Artikeln, die von den Schattenbibliotheken Sci-Hub und LibGen illegal zur Verfügung gestellt wurden. Dieses und andere Urteile ließen sich jedoch mangels Zugriffes auf Sci-Hub und dessen Verantwortliche außerhalb des juristischen Einflussbereiches der USA nicht durchsetzen.
    Date
    29. 6.2019 17:46:17
  14. Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff (2020) 0.01
    0.009826479 = product of:
      0.062234364 = sum of:
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.01120076 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 326) [ClassicSimilarity], result of:
              0.02240152 = score(doc=326,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 326, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=326)
          0.5 = coord(1/2)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.010891607 = weight(_text_:und in 326) [ClassicSimilarity], result of:
          0.010891607 = score(doc=326,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 326, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=326)
        0.007467173 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 326) [ClassicSimilarity], result of:
              0.02240152 = score(doc=326,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 326, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=326)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Informationswissenschaft, eine Disziplin ohne Theorie, ohne Bezugsrahmen und ohne Klärung ihres Grundbegriffes. Zahlreiche FachvertreterInnen der Informationswissenschaft bereiten erst recht das Feld für Hate Speech und Fake News vor - mit ihrem ungeklärten (Un)begriff der "Information", - mit ihrer Forderung nach "Informationskompetenz", ein Terrain, das eigentlich der Bibliothekswissenschaft zusteht, - mit ihrer Theorielosigkeit, - mit ihrer unkritischen Ablehnung einer ernsthaften Auseinandersetzung sowie - mit ihrem ungeklärten Domänenverständnis.
    Content
    Fortsetzung als: Wie man mit Information umgehen sollte - Das Beispiel der Medienforschung. Unter: Open Password. 2020, Nr.777 vom 29. Juni 2020 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=Wzk0LCIxODU1NzhmZDQ2ZDAiLDAsMCw4NSwxXQ].
    Date
    29. 6.2020 11:11:10
  15. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.01
    0.009789276 = product of:
      0.053141784 = sum of:
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
              0.015146374 = score(doc=405,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.5 = coord(1/2)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.007573187 = product of:
          0.015146374 = sum of:
            0.015146374 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
              0.015146374 = score(doc=405,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17415863 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.5 = coord(1/2)
        0.008938218 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.008938218 = score(doc=405,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.002242539 = product of:
          0.006727617 = sum of:
            0.006727617 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
              0.006727617 = score(doc=405,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.116070345 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Footnote
    Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
    Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  16. Wittwer, B.: Von NEBIS zu SLSP : wie die Datenmigration des grössten Schweizer Verbundes umgesetzt wurde (2021) 0.01
    0.009398469 = product of:
      0.05952364 = sum of:
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
              0.013577371 = score(doc=537,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.5 = coord(1/2)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.01205229 = weight(_text_:und in 537) [ClassicSimilarity], result of:
          0.01205229 = score(doc=537,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 537, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=537)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 537) [ClassicSimilarity], result of:
              0.013577371 = score(doc=537,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 537, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=537)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Am 7. Dezember 2020 begann mit swisscovery für das Schweizer Bibliothekswesen eine neue Ära. Die sechs grossen Bibliotheksverbünde fusionierten zu einer einzigen Plattform, der Swiss Library Service Plattform (SLSP). Damit einhergehend wurde mit Ex Libris Alma auch ein neues Bibliothekssystem eingeführt und Aleph und SFX abgelöst. Für den NEBIS-Verbund, ehemals grösster Bibliotheksverbund in der Schweiz, bedeutete dies, die Datenmigration zu organisieren und die NEBIS-Bibliotheken beim Wechsel zu SLSP zu begleiten. Ein Wechsel des Bibliothekssystems ist immer mit vielfältigen Herausforderungen und Unwägbarkeiten verbunden. Welche konzeptuellen Überlegungen sich die NEBIS-Systemverantwortlichen bezüglich der Datenmigration gemacht haben und wie die unzähligen Bereinigungen priorisiert wurden, wird nebst den Lessons Learned im Folgenden aufgezeigt.
    Date
    29. 9.2021 14:01:02
  17. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.01
    0.00917275 = product of:
      0.06971289 = sum of:
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.01555944 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.01555944 = score(doc=236,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.0074751303 = product of:
          0.02242539 = sum of:
            0.02242539 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.02242539 = score(doc=236,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.33333334 = coord(1/3)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  18. Franz, S.; Lopatka, T.; Kunze, G.; Meyn, N.; Strupler, N.: Un/Doing Classification : Bibliothekarische Klassifikationssysteme zwischen Universalitätsanspruch und reduktionistischer Wissensorganisation (2022) 0.01
    0.009166541 = product of:
      0.06966571 = sum of:
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.005386828 = product of:
          0.010773656 = sum of:
            0.010773656 = weight(_text_:4 in 675) [ClassicSimilarity], result of:
              0.010773656 = score(doc=675,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23985931 = fieldWeight in 675, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0625 = fieldNorm(doc=675)
          0.5 = coord(1/2)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
        0.01606972 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.01606972 = score(doc=675,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 675, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=675)
      0.13157895 = coord(5/38)
    
    Abstract
    Der multiperspektivische Beitrag analysiert mit einem intersektionalen und qualitativen Ansatz diskriminierende Begriffe, Auslassungen und implizit abwertende Strukturen bibliothekarischer Klassifikationen des Globalen Nordens. Am Beispiel der Regensburger Verbundklassifikation (RVK) werden rassistische und sexistische Schnitt- sowie Leerstellen in der Repräsentation queerer Lebens-, Liebes- und Lustentwürfe aufgezeigt. Mögliche Lösungen unter Einbeziehung der Communitys runden den Beitrag ab.
    Source
    027.7 Zeitschrift für Bibliothekskultur. 9(2022), H.4
  19. Hapke, T.: Zu einer ganzheitlichen Informationskompetenz gehört eine kritische Wissenschaftskompetenz : Informationskompetenz und Demokratie (2020) 0.01
    0.0090420395 = product of:
      0.0687195 = sum of:
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 5685) [ClassicSimilarity], result of:
              0.008080241 = score(doc=5685,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 5685, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5685)
          0.5 = coord(1/2)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
        0.016169844 = weight(_text_:und in 5685) [ClassicSimilarity], result of:
          0.016169844 = score(doc=5685,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 5685, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5685)
      0.13157895 = coord(5/38)
    
    Abstract
    1. Was ist Informationskompetenz? Was macht Informationskompetenz im Kern aus? Wie weit greift sie, wo endet sie? Inwiefern spielt Informationskompetenz mit weiteren Kompetenzen zusammen? 2. Wie soll man Informationskompetenz vermitteln? Wie soll Informationskompetenz am besten vermittelt werden? Wie werden Menschen am besten zu informationskompetentem Verhalten motiviert und geführt? 3. Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? Wie entwickelt sich Informationskompetenz? Welche Bereiche werden künftig wichtiger? 4. Weitere Aspekte des Themas - Welche? Warum sind diese wichtig? Was folgert daraus?
    Footnote
    Leicht veränderte Fassung eines Beitrages, der für das Projekt "Informationskompetenz und Demokratie" erstellt wurde (Daphné Çetta, Joachim Griesbaum, Thomas Mandl, Elke Montanari). Die ursprüngliche Fassung ist enthalten in: Çetta, D., Griesbaum, J., Mandl, T., Montanari, E. (Hg). (2019). Positionspapiere: Informationskompetenz und Informationskompetenzvermittlung: Aktueller Stand und Perspektiven. Projekt: Zukunftsdiskurse: Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung, Universität Hildesheim, http://informationskompetenz.blog.uni-hildesheim.de/files/2019/10/Projekt_Informationskompetenz_und_DemokratieKompilation_aller_Positionspapiere.pdf. Die Fragen, die den Beitrag strukturieren und entsprechend hervorgehoben werden, wurden von den Hildesheimer Forschern gestellt.
  20. Schoenbeck, O.; Schröter, M.; Werr, N.: Framework Informationskompetenz in der Hochschulbildung (2021) 0.01
    0.008963155 = product of:
      0.056766648 = sum of:
        0.010891607 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.010891607 = score(doc=298,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.010891607 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.010891607 = score(doc=298,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.007920133 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 298) [ClassicSimilarity], result of:
              0.015840266 = score(doc=298,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=298)
          0.5 = coord(1/2)
        0.010891607 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.010891607 = score(doc=298,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.010891607 = weight(_text_:und in 298) [ClassicSimilarity], result of:
          0.010891607 = score(doc=298,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.2968967 = fieldWeight in 298, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
        0.0052800886 = product of:
          0.015840266 = sum of:
            0.015840266 = weight(_text_:29 in 298) [ClassicSimilarity], result of:
              0.015840266 = score(doc=298,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.27205724 = fieldWeight in 298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=298)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
    Editor
    Gemeinsame Kommission Informationskompetenz von dbv und VDB
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-29

Languages

  • d 148
  • e 9
  • More… Less…