Search (682 results, page 1 of 35)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.06572157 = score(doc=1000,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.2631579 = coord(10/38)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.07
    0.06641337 = product of:
      0.42061803 = sum of:
        0.026288627 = product of:
          0.07886588 = sum of:
            0.07886588 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.07886588 = score(doc=862,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.07886588 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07886588 = score(doc=862,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07886588 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07886588 = score(doc=862,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07886588 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07886588 = score(doc=862,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07886588 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07886588 = score(doc=862,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.07886588 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.07886588 = score(doc=862,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.15789473 = coord(6/38)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.03
    0.03259711 = product of:
      0.17695574 = sum of:
        0.062433008 = weight(_text_:medizin in 1203) [ClassicSimilarity], result of:
          0.062433008 = score(doc=1203,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.70717645 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.062433008 = weight(_text_:medizin in 1203) [ClassicSimilarity], result of:
          0.062433008 = score(doc=1203,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.70717645 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010779895 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010779895 = score(doc=1203,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010779895 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010779895 = score(doc=1203,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010779895 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010779895 = score(doc=1203,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.010779895 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.010779895 = score(doc=1203,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.008970156 = product of:
          0.026910467 = sum of:
            0.026910467 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.026910467 = score(doc=1203,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Abstract
    Hirntumoren können synaptische Verbindungen mit Nervenzellen knüpfen und wachsen auf Kosten der kognitiven Fähigkeiten weiter heran. Das hat fatale Folgen.
    Field
    Medizin
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24
  4. Blümig, G.; Klein, D.; Wolf, S.: ¬Das Framework und die Erstsemesterstudierenden der Medizin : ein Erfahrungsbericht aus der Universitätsbibliothek Würzburg (2021) 0.03
    0.027863085 = product of:
      0.17646621 = sum of:
        0.063080005 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.063080005 = score(doc=301,freq=6.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.063080005 = weight(_text_:medizin in 301) [ClassicSimilarity], result of:
          0.063080005 = score(doc=301,freq=6.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.71450496 = fieldWeight in 301, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
        0.012576545 = weight(_text_:und in 301) [ClassicSimilarity], result of:
          0.012576545 = score(doc=301,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 301, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=301)
      0.15789473 = coord(6/38)
    
    Abstract
    Dieser Artikel schildert die Neukonzeption eines Kurses für Erstsemesterstudierende der Medizin an der Universitätsbibliothek Würzburg unter Einbeziehung des Frameworks for Information Literacy for Higher Education (im Folgenden Framework genannt). Nach einleitenden Bemerkungen zur Theorie der Schwellenkonzepte und zum Framework selbst steht der Kursinhalt mit den dazugehörigen Frames, Knowledge Practices und Dispositions im Fokus. Die Auswertung der Evaluation und ein Ausblick auf die Umsetzung des Kurses in der coronabedingten digitalen Lehre bilden den Schluss.
    Field
    Medizin
  5. Christensen, A.; Finck, M.: Discovery-Systeme : eine Analyse ihrer Geschichte und Gegenwart mit dem Hype-Zyklus (2021) 0.02
    0.023782963 = product of:
      0.11296907 = sum of:
        0.014373194 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014373194 = score(doc=552,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.020195166 = product of:
          0.04039033 = sum of:
            0.04039033 = weight(_text_:allgemein in 552) [ClassicSimilarity], result of:
              0.04039033 = score(doc=552,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46442303 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.014373194 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014373194 = score(doc=552,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.009051581 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 552) [ClassicSimilarity], result of:
              0.018103162 = score(doc=552,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.014373194 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014373194 = score(doc=552,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.020195166 = product of:
          0.04039033 = sum of:
            0.04039033 = weight(_text_:allgemein in 552) [ClassicSimilarity], result of:
              0.04039033 = score(doc=552,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46442303 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.5 = coord(1/2)
        0.014373194 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.014373194 = score(doc=552,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 552, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=552)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 552) [ClassicSimilarity], result of:
              0.018103162 = score(doc=552,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=552)
          0.33333334 = coord(1/3)
      0.21052632 = coord(8/38)
    
    Abstract
    Der Beitrag analysiert die Entstehungsgeschichte von bibliothekarischen Discovery-Systemen in Wissenschaftlichen Bibliotheken, mit einem Fokus auf Bibliotheken in Deutschland. Hierfür dient der Hype-Zyklus als Rahmen, um vor allem auch auf die Erwartungen und Rezeption der Systeme in bibliothekarischen Kreisen einzugehen und diese zu diskutieren. Der Beitrag liefert außerdem einen Ausblick auf künftige Potenziale von Discovery-Systemen, auch im Kontext von forschungsnahen Dienstleistungen.
    Date
    6.12.2021 17:20:29
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.3, S.497-508
    Theme
    Katalogfragen allgemein
  6. Widmann, V.: ¬Die Sache mit der Menschenwürde und dem Wert des Lebens (2020) 0.02
    0.022221599 = product of:
      0.1407368 = sum of:
        0.04162201 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04162201 = score(doc=5377,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.04162201 = weight(_text_:medizin in 5377) [ClassicSimilarity], result of:
          0.04162201 = score(doc=5377,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 5377, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
        0.014373194 = weight(_text_:und in 5377) [ClassicSimilarity], result of:
          0.014373194 = score(doc=5377,freq=8.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.39180204 = fieldWeight in 5377, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5377)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Diskussion um Menschenwürde und Lebensschutz prosperiert in der Corona-Krise. Die Feuilletons renommierter Zeitschriften sind der Austragungsort, Koryphäen aus Juristerei, Philosophie und Politik die Protagonisten der Debatte.
    Field
    Medizin
    Source
    https://www.heise.de/tp/features/Die-Sache-mit-der-Menschenwuerde-und-dem-Wert-des-Lebens-4720866.html?seite=all
  7. Dirnagl, U.: Kulturwandel in der Biomedizin (2020) 0.02
    0.02210337 = product of:
      0.139988 = sum of:
        0.052027512 = weight(_text_:medizin in 3226) [ClassicSimilarity], result of:
          0.052027512 = score(doc=3226,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.58931375 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.052027512 = weight(_text_:medizin in 3226) [ClassicSimilarity], result of:
          0.052027512 = score(doc=3226,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.58931375 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008983246 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008983246 = score(doc=3226,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008983246 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008983246 = score(doc=3226,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008983246 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008983246 = score(doc=3226,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
        0.008983246 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
          0.008983246 = score(doc=3226,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 3226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3226)
      0.15789473 = coord(6/38)
    
    Abstract
    Biomedizinische Studien haben sich oft als methodisch unzuverlässig herausgestellt, was ihre Ergebnisse in Zweifel zieht. Viele Wissenschaftler sehen das Fach deshalb in einer Krise. Ein Umdenken ist nötig - und hat bereits eingesetzt.
    Field
    Medizin
  8. Schleim, S.; Amunts, K.: Deutsche Forscher veröffentlichen ersten 3D-Atlas des menschlichen Gehirns (2020) 0.02
    0.02209059 = product of:
      0.16788848 = sum of:
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.1319555 = weight(_text_:3d in 56) [ClassicSimilarity], result of:
          0.1319555 = score(doc=56,freq=4.0), product of:
            0.1182296 = queryWeight, product of:
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.016551789 = queryNorm
            1.1160953 = fieldWeight in 56, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
        0.008983246 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.008983246 = score(doc=56,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.24487628 = fieldWeight in 56, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=56)
      0.13157895 = coord(5/38)
    
    Abstract
    Ein Gespräch mit der Spitzenforscherin Katrin Amunts über Erkenntnisfortschritte, Herausforderungen der KI und ein gesundes Gehirn.
    Source
    https://www.heise.de/tp/features/Deutsche-Forscher-veroeffentlichen-ersten-3D-Atlas-des-menschlichen-Gehirns-4992198.html?seite=all
  9. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.021184618 = product of:
      0.115002215 = sum of:
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.030292748 = score(doc=406,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.0040401206 = product of:
          0.008080241 = sum of:
            0.008080241 = weight(_text_:4 in 406) [ClassicSimilarity], result of:
              0.008080241 = score(doc=406,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.17989448 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.030292748 = score(doc=406,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
        0.020167338 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.020167338 = score(doc=406,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
      0.18421052 = coord(7/38)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  10. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.02
    0.020004213 = product of:
      0.1085943 = sum of:
        0.020811005 = weight(_text_:medizin in 752) [ClassicSimilarity], result of:
          0.020811005 = score(doc=752,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.020811005 = weight(_text_:medizin in 752) [ClassicSimilarity], result of:
          0.020811005 = score(doc=752,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.01606972 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.01606972 = score(doc=752,freq=40.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.01606972 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.01606972 = score(doc=752,freq=40.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 752) [ClassicSimilarity], result of:
              0.005386828 = score(doc=752,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
        0.01606972 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.01606972 = score(doc=752,freq=40.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.01606972 = weight(_text_:und in 752) [ClassicSimilarity], result of:
          0.01606972 = score(doc=752,freq=40.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.438048 = fieldWeight in 752, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.18421052 = coord(7/38)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  11. Illing, S.: Automatisiertes klinisches Codieren (2021) 0.02
    0.01956277 = product of:
      0.123897545 = sum of:
        0.04162201 = weight(_text_:medizin in 419) [ClassicSimilarity], result of:
          0.04162201 = score(doc=419,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.04162201 = weight(_text_:medizin in 419) [ClassicSimilarity], result of:
          0.04162201 = score(doc=419,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.47145098 = fieldWeight in 419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.010163383 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.010163383 = score(doc=419,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.010163383 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.010163383 = score(doc=419,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.010163383 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.010163383 = score(doc=419,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
        0.010163383 = weight(_text_:und in 419) [ClassicSimilarity], result of:
          0.010163383 = score(doc=419,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.27704588 = fieldWeight in 419, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=419)
      0.15789473 = coord(6/38)
    
    Abstract
    Die in diesem Artikel vorgestellte Bachelorarbeit behandelt die Ergebnisse einer Shared Task im Bereich eHealth. Es wird untersucht, ob die Klassifikationsgenauigkeit ausgewählter klinischer Codiersysteme durch den Einsatz von Ensemble-Methoden verbessert werden kann. Entscheidend dafür sind die Werte der Evaluationsmaße Mean Average Precision und F1-Maß.
    Field
    Medizin
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.5/6, S.285-290
  12. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.02
    0.018192982 = product of:
      0.11522223 = sum of:
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.04975686 = weight(_text_:einzelner in 266) [ClassicSimilarity], result of:
          0.04975686 = score(doc=266,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.015245074 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.015245074 = score(doc=266,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.004485078 = product of:
          0.013455234 = sum of:
            0.013455234 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.013455234 = score(doc=266,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  13. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.01805433 = product of:
      0.1143441 = sum of:
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.035733238 = sum of:
          0.013331719 = weight(_text_:4 in 428) [ClassicSimilarity], result of:
            0.013331719 = score(doc=428,freq=4.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.29681075 = fieldWeight in 428, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0546875 = fieldNorm(doc=428)
          0.02240152 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
            0.02240152 = score(doc=428,freq=4.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.38474706 = fieldWeight in 428, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.01778592 = weight(_text_:und in 428) [ClassicSimilarity], result of:
          0.01778592 = score(doc=428,freq=16.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 428, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
        0.007467173 = product of:
          0.02240152 = sum of:
            0.02240152 = weight(_text_:29 in 428) [ClassicSimilarity], result of:
              0.02240152 = score(doc=428,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38474706 = fieldWeight in 428, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    Im abschließenden Teil 4 dieser Reihe zur Kritik des "Informationskompetenz"-Ansatzes der Bibliotheks- und Informationswissenschaft und dessen Eignung für die Aufdeckung und "Bekämpfung" von Desinformationen bzw. Fake News (Open Password - noch einzufügen) werden ausgewählte Forschungsergebnisse vorgestellt. Diese entstammen der Studie "Quelle: Internet? - Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test". Träger der Studie ist die Berliner Stiftung "Neue Verantwortung", ein Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten-und-informationskompetenzen-der-deutschen).
    Date
    29. 9.2021 18:17:40
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
    Source
    Open Password. 2021, Nr.979 vom 29. September 2021 [https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzM1OSwiNWZhNTM1ZjgxZDVlIiwwLDAsMzI2LDFd]
  14. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.02
    0.017672481 = product of:
      0.11192572 = sum of:
        0.019056344 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.019056344 = score(doc=755,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 755) [ClassicSimilarity], result of:
              0.035700347 = score(doc=755,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 755, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=755)
          0.5 = coord(1/2)
        0.019056344 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.019056344 = score(doc=755,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.019056344 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.019056344 = score(doc=755,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.017850174 = product of:
          0.035700347 = sum of:
            0.035700347 = weight(_text_:allgemein in 755) [ClassicSimilarity], result of:
              0.035700347 = score(doc=755,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.41049585 = fieldWeight in 755, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=755)
          0.5 = coord(1/2)
        0.019056344 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.019056344 = score(doc=755,freq=36.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
      0.15789473 = coord(6/38)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
  15. Lewis, T.: Woher stammt Sars-CoV-2? (2023) 0.02
    0.017475104 = product of:
      0.16601348 = sum of:
        0.07357801 = weight(_text_:medizin in 1060) [ClassicSimilarity], result of:
          0.07357801 = score(doc=1060,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.83341545 = fieldWeight in 1060, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=1060)
        0.07357801 = weight(_text_:medizin in 1060) [ClassicSimilarity], result of:
          0.07357801 = score(doc=1060,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.83341545 = fieldWeight in 1060, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.078125 = fieldNorm(doc=1060)
        0.011314476 = product of:
          0.022628952 = sum of:
            0.022628952 = weight(_text_:29 in 1060) [ClassicSimilarity], result of:
              0.022628952 = score(doc=1060,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38865322 = fieldWeight in 1060, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1060)
          0.5 = coord(1/2)
        0.007542984 = product of:
          0.022628952 = sum of:
            0.022628952 = weight(_text_:29 in 1060) [ClassicSimilarity], result of:
              0.022628952 = score(doc=1060,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.38865322 = fieldWeight in 1060, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1060)
          0.33333334 = coord(1/3)
      0.10526316 = coord(4/38)
    
    Date
    25. 9.2023 18:29:02
    Field
    Medizin
    Series
    Medizin
  16. Kuhlen, R.: Informationspathologien - Desinformation (2023) 0.02
    0.017469816 = product of:
      0.11064217 = sum of:
        0.031216504 = weight(_text_:medizin in 820) [ClassicSimilarity], result of:
          0.031216504 = score(doc=820,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.031216504 = weight(_text_:medizin in 820) [ClassicSimilarity], result of:
          0.031216504 = score(doc=820,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.35358822 = fieldWeight in 820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.01205229 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.01205229 = score(doc=820,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.01205229 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.01205229 = score(doc=820,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.01205229 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.01205229 = score(doc=820,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
        0.01205229 = weight(_text_:und in 820) [ClassicSimilarity], result of:
          0.01205229 = score(doc=820,freq=10.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.328536 = fieldWeight in 820, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=820)
      0.15789473 = coord(6/38)
    
    Abstract
    Pathologie ist eine Disziplin der Medizin, die sich mit den Ursachen, dem Verlauf und den Auswirkungen von "abnormalen und krankhaften Vorgängen und Zuständen im Körper" und "Missbildungen aller Art" beschäftigt. Pathologien setzen als Maßstab einen Normalzustand (Gesundheit) voraus, der beschädigt bzw. eingeschränkt wird z. B. aufgrund von angeborenen Fehlentwicklungen, Krankheiten oder auch von post-traumatischen Erfahrungen. Entsprechend werden hier Informationspathologien bzw. Desinformationen als Beschädigungen bzw. Einschränkungen des Normalzustands von Information behandelt, wobei es problematisch ist zu bestimmen, was der Normalzustand von Information sein soll. In der Fachwelt wird häufig Desinformation (DI) als Oberbegriff für alle diese Phänomene verwendet. Sie sind aber im Detail doch sehr unterschiedlich, so dass sich Informationspathologie (IP) eher als Oberbegriff empfehlen würde. Hier wird im Folgenden beides, verkürzend als IP/DI, verwendet.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  17. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.02
    0.01634696 = product of:
      0.10353074 = sum of:
        0.019635124 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.019635124 = score(doc=1186,freq=78.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.012495121 = product of:
          0.024990242 = sum of:
            0.024990242 = weight(_text_:allgemein in 1186) [ClassicSimilarity], result of:
              0.024990242 = score(doc=1186,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.28734708 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
        0.019635124 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.019635124 = score(doc=1186,freq=78.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.019635124 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.019635124 = score(doc=1186,freq=78.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.012495121 = product of:
          0.024990242 = sum of:
            0.024990242 = weight(_text_:allgemein in 1186) [ClassicSimilarity], result of:
              0.024990242 = score(doc=1186,freq=4.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.28734708 = fieldWeight in 1186, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.5 = coord(1/2)
        0.019635124 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.019635124 = score(doc=1186,freq=78.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
      0.15789473 = coord(6/38)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  18. Nguyen-Kim, M.T.: ¬Die kleinste gemeinsame Wirklichkeit : wahr, falsch, plausibel? : die größten Streitfragen wissenschaftlich geprüft (2021) 0.02
    0.015929084 = product of:
      0.1008842 = sum of:
        0.020811005 = weight(_text_:medizin in 235) [ClassicSimilarity], result of:
          0.020811005 = score(doc=235,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 235, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
        0.020811005 = weight(_text_:medizin in 235) [ClassicSimilarity], result of:
          0.020811005 = score(doc=235,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 235, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
        0.014815548 = weight(_text_:und in 235) [ClassicSimilarity], result of:
          0.014815548 = score(doc=235,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40386027 = fieldWeight in 235, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
        0.014815548 = weight(_text_:und in 235) [ClassicSimilarity], result of:
          0.014815548 = score(doc=235,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40386027 = fieldWeight in 235, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
        0.014815548 = weight(_text_:und in 235) [ClassicSimilarity], result of:
          0.014815548 = score(doc=235,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40386027 = fieldWeight in 235, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
        0.014815548 = weight(_text_:und in 235) [ClassicSimilarity], result of:
          0.014815548 = score(doc=235,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40386027 = fieldWeight in 235, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
      0.15789473 = coord(6/38)
    
    Abstract
    Die bekannte Wissenschaftsjournalistin Dr. Mai Thi Nguyen-Kim untersucht mit analytischem Scharfsinn und unbestechlicher Logik brennende Streitfragen unserer Gesellschaft. Mit Fakten und wissenschaftlichen Erkenntnissen kontert sie Halbwahrheiten, Fakes und Verschwörungsmythen - und zeigt, wo wir uns mangels Beweisen noch zurecht munter streiten dürfen. Themen: Die Legalisierung von Drogen, Videospiele, Gewalt, Gender Pay Gap, systemrelevante Berufe, Care-Arbeit, Lohngerechtigkeit, Big Pharma vs. Alternative Medizin, Homöopathie, klinische Studien, Impfpflicht, die Erblichkeit von Intelligenz, Gene vs. Umwelt, männliche und weibliche Gehirne, Tierversuche und von Corona bis Klimawandel: Wie politisch darf Wissenschaft sein?
    Fakten, wissenschaftlich fundiert und eindeutig belegt, sind Gold wert. Gerade dann, wenn in Gesellschaft und Politik über Reizthemen hitzig gestritten wird, braucht es einen Faktencheck, um die Dinge klarzustellen und Irrtümer und Fakes aus der Welt schaffen. Leider aber werden Fakten oft verkürzt, missverständlich präsentiert oder gerne auch mit subjektiver Meinung wild gemischt. Ein sachlicher Diskurs? Nicht mehr möglich. Dr. Mai Thi Nguyen-Kim räumt bei den derzeit beliebtesten Streitthemen mit diesem Missstand auf. Bestechend klarsichtig, wunderbar unaufgeregt und herrlich kurzweilig ermittelt sie anhand wissenschaftlicher Erkenntnisse das, was faktisch niemand in Abrede stellen kann, wenn es beispielsweise um Erblichkeit von Intelligenz, Gender Pay Gap, Klimawandel oder Legalisierung von Drogen geht. Mai Thi Nguyen-Kims Suche nach dem Kern der Wahrheit zeigt dabei nicht nur, was unanfechtbar ist und worauf wir uns alle einigen können. Mehr noch: Sie macht deutlich, wo die Fakten aufhören, wo Zahlen und wissenschaftliche Belege fehlen - wo wir also völlig berechtigt uns gegenseitig persönliche Meinungen an den Kopf werfen dürfen. Ein spannender und informativer Fakten- und Reality-Check, der beste Bullshit-Detektor für unsere angeblich postfaktische Zeit.
    BK
    02.10 (Wissenschaft und Gesellschaft)
    Classification
    02.10 (Wissenschaft und Gesellschaft)
  19. Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020) 0.02
    0.015876759 = product of:
      0.12066336 = sum of:
        0.016169844 = weight(_text_:und in 551) [ClassicSimilarity], result of:
          0.016169844 = score(doc=551,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 551, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.016169844 = weight(_text_:und in 551) [ClassicSimilarity], result of:
          0.016169844 = score(doc=551,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 551, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.05598398 = weight(_text_:3d in 551) [ClassicSimilarity], result of:
          0.05598398 = score(doc=551,freq=2.0), product of:
            0.1182296 = queryWeight, product of:
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.016551789 = queryNorm
            0.47351915 = fieldWeight in 551, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.14301 = idf(docFreq=94, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.016169844 = weight(_text_:und in 551) [ClassicSimilarity], result of:
          0.016169844 = score(doc=551,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 551, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.016169844 = weight(_text_:und in 551) [ClassicSimilarity], result of:
          0.016169844 = score(doc=551,freq=18.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4407773 = fieldWeight in 551, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
      0.13157895 = coord(5/38)
    
    Abstract
    Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
  20. Mattmann, B.; Regenass, N.: ¬Eine neue Form der Recherche in Bibliotheken : "Suchschlitz" contra Exploration - Reduktion statt Orientierung? (2021) 0.02
    0.015308492 = product of:
      0.09695379 = sum of:
        0.015403059 = weight(_text_:und in 432) [ClassicSimilarity], result of:
          0.015403059 = score(doc=432,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=432)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 432) [ClassicSimilarity], result of:
              0.035341542 = score(doc=432,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=432)
          0.5 = coord(1/2)
        0.015403059 = weight(_text_:und in 432) [ClassicSimilarity], result of:
          0.015403059 = score(doc=432,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=432)
        0.015403059 = weight(_text_:und in 432) [ClassicSimilarity], result of:
          0.015403059 = score(doc=432,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=432)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 432) [ClassicSimilarity], result of:
              0.035341542 = score(doc=432,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=432)
          0.5 = coord(1/2)
        0.015403059 = weight(_text_:und in 432) [ClassicSimilarity], result of:
          0.015403059 = score(doc=432,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 432, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=432)
      0.15789473 = coord(6/38)
    
    Abstract
    Suchportale von Bibliotheken haben im Laufe der Zeit immer stärker eine Reduktion auf einfachste Suchmöglichkeiten im Stile von Google erfahren. Das kommt zwar den Gewohnheiten der Nutzer:innen entgegen, schränkt aber die Möglichkeiten einer fundierten Recherche ein. Abhilfe schaffen explorative Suchinstrumente. Damit diese ökonomisch und bedarfsgerecht realisiert werden können, braucht es eine hohe Datenqualität und einen standardisierten Werkzeugkasten zur Umsetzung von Rechercheoberflächen. Anstelle eines Ausbaus der Funktionen von Suchportalen empfiehlt sich daher eine Ausrichtung und Individualisierung zusätzlicher Recherchetools auf konkrete Anwendungskontexte und Nutzertypen.
    Footnote
    Beitrag in einem Schwerpunktheft: Transfer und Transformation - Bibliotheken als Vermittler im globalen Kontext. Kolloquium anlässlich des 80. Geburtstages von Elmar Mittler.
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.2, S.304-316
    Theme
    Katalogfragen allgemein

Languages

  • d 418
  • e 257
  • pt 3
  • m 2
  • More… Less…

Types

  • a 555
  • el 223
  • m 55
  • s 7
  • p 5
  • x 3
  • r 1
  • More… Less…

Themes

Subjects

Classifications