Search (672 results, page 1 of 34)

  • × year_i:[2020 TO 2030}
  1. Li, G.; Siddharth, L.; Luo, J.: Embedding knowledge graph of patent metadata to measure knowledge proximity (2023) 0.10
    0.09805966 = product of:
      0.24514915 = sum of:
        0.23767556 = weight(_text_:patent in 920) [ClassicSimilarity], result of:
          0.23767556 = score(doc=920,freq=10.0), product of:
            0.24282473 = queryWeight, product of:
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.036774147 = queryNorm
            0.9787947 = fieldWeight in 920, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.046875 = fieldNorm(doc=920)
        0.007473584 = product of:
          0.029894335 = sum of:
            0.029894335 = weight(_text_:22 in 920) [ClassicSimilarity], result of:
              0.029894335 = score(doc=920,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.23214069 = fieldWeight in 920, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=920)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Knowledge proximity refers to the strength of association between any two entities in a structural form that embodies certain aspects of a knowledge base. In this work, we operationalize knowledge proximity within the context of the US Patent Database (knowledge base) using a knowledge graph (structural form) named "PatNet" built using patent metadata, including citations, inventors, assignees, and domain classifications. We train various graph embedding models using PatNet to obtain the embeddings of entities and relations. The cosine similarity between the corresponding (or transformed) embeddings of entities denotes the knowledge proximity between these. We compare the embedding models in terms of their performances in predicting target entities and explaining domain expansion profiles of inventors and assignees. We then apply the embeddings of the best-preferred model to associate homogeneous (e.g., patent-patent) and heterogeneous (e.g., inventor-assignee) pairs of entities.
    Date
    22. 3.2023 12:06:55
  2. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.04
    0.039937623 = product of:
      0.09984405 = sum of:
        0.022580625 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.022580625 = score(doc=31,freq=4.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.27704588 = fieldWeight in 31, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=31)
        0.07726343 = product of:
          0.30905372 = sum of:
            0.30905372 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.30905372 = score(doc=31,freq=2.0), product of:
                0.3585839 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.036774147 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  3. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.03
    0.027576206 = product of:
      0.06894051 = sum of:
        0.02395037 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.02395037 = score(doc=1203,freq=2.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.29385152 = fieldWeight in 1203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.04499014 = product of:
          0.08998028 = sum of:
            0.03019161 = weight(_text_:m in 1203) [ClassicSimilarity], result of:
              0.03019161 = score(doc=1203,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.3299248 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
            0.05978867 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.05978867 = score(doc=1203,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.5 = coord(2/4)
      0.4 = coord(2/5)
    
    Abstract
    Hirntumoren können synaptische Verbindungen mit Nervenzellen knüpfen und wachsen auf Kosten der kognitiven Fähigkeiten weiter heran. Das hat fatale Folgen.
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24
  4. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.03
    0.026382912 = product of:
      0.06595728 = sum of:
        0.048672583 = product of:
          0.14601775 = sum of:
            0.14601775 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.14601775 = score(doc=1000,freq=2.0), product of:
                0.31177163 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036774147 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.017284691 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.017284691 = score(doc=1000,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4 = coord(2/5)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  5. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.025114192 = product of:
      0.06278548 = sum of:
        0.048672583 = product of:
          0.14601775 = sum of:
            0.14601775 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.14601775 = score(doc=5669,freq=2.0), product of:
                0.31177163 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036774147 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.014112891 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.014112891 = score(doc=5669,freq=4.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.4 = coord(2/5)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  6. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.02
    0.024872418 = product of:
      0.062181044 = sum of:
        0.058407094 = product of:
          0.17522128 = sum of:
            0.17522128 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.17522128 = score(doc=862,freq=2.0), product of:
                0.31177163 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.036774147 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.0037739512 = product of:
          0.015095805 = sum of:
            0.015095805 = weight(_text_:m in 862) [ClassicSimilarity], result of:
              0.015095805 = score(doc=862,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.1649624 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  7. Wüllner, J.: Obsidian - das Organisationstalent : Ideen, Notizen, Planungen, Projekte - diese App kann für Schule, Uni und Beruf hilfreich sein (2023) 0.02
    0.020949304 = product of:
      0.05237326 = sum of:
        0.039917286 = weight(_text_:und in 1080) [ClassicSimilarity], result of:
          0.039917286 = score(doc=1080,freq=8.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.48975256 = fieldWeight in 1080, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1080)
        0.012455974 = product of:
          0.049823895 = sum of:
            0.049823895 = weight(_text_:22 in 1080) [ClassicSimilarity], result of:
              0.049823895 = score(doc=1080,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.38690117 = fieldWeight in 1080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1080)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Für Rechner, Tablets und Smartphones gibt es eine große Zahl sehr praktischer Organisationsprogramme, die als Notizbücher, Arbeitsordner, Planer und Projektmanager nutzbar sind. Obsidian gibt es seit 2022 und ist durchaus einen Test wert.
    Date
    27. 1.2023 16:22:55
  8. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.02
    0.019473542 = product of:
      0.048683852 = sum of:
        0.029937962 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.029937962 = score(doc=374,freq=18.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.018745892 = product of:
          0.037491783 = sum of:
            0.012579837 = weight(_text_:m in 374) [ClassicSimilarity], result of:
              0.012579837 = score(doc=374,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.13746867 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
            0.024911948 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.024911948 = score(doc=374,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(2/4)
      0.4 = coord(2/5)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  9. Maas, J.F.: Inhaltserschließung für Discovery-Systeme gestalten (2021) 0.02
    0.019432396 = product of:
      0.04858099 = sum of:
        0.04480704 = weight(_text_:und in 375) [ClassicSimilarity], result of:
          0.04480704 = score(doc=375,freq=28.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.54974586 = fieldWeight in 375, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=375)
        0.0037739512 = product of:
          0.015095805 = sum of:
            0.015095805 = weight(_text_:m in 375) [ClassicSimilarity], result of:
              0.015095805 = score(doc=375,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.1649624 = fieldWeight in 375, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=375)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Bibliotheken und Informationseinrichtungen erfahren in den letzten Jahren einen Wandel in ihren Aufgaben. Die zunehmende digitale Vernetzung ermöglicht es den Agierenden des Publikations- und Informationswesens, verstärkt die eigene Rolle zu verlassen und in Bereichen tätig zu werden, die bisher nicht dem eigenen Kerngebiet entsprochen haben. So können z. B. Verlage und Autor: innen in Umgehung des Einzelhandels und der Bibliotheken ihre Werke direkt an die Kund:innen verkaufen und ausliefern und Bibliotheken können über Open-Access-Repositorien selbst Werke publizieren. Ich möchte in diesem Beitrag dafür argumentieren, Tätigkeiten in Bibliotheken und Informationseinrichtungen - speziell Erschließung und das Entwickeln von Discovery-Systemen - konsequent in Bezug auf Anwendungsfälle zu denken und zu gestalten. Nur so lässt sich effektiv und effizient sowohl bei der Erschließung als auch bei der Gestaltung der die Erschließung nutzenden Systeme und Prozesse arbeiten. Zunächst möchte ich dafür in den folgenden Abschnitten Berührungspunkte aufzeigen, um auf die vielfältigen Probleme aber auch Möglichkeiten im Zusammenspiel von (Inhalts-)Erschließung und Discovery-Systemen hinzuweisen.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  10. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.02
    0.019405728 = product of:
      0.048514318 = sum of:
        0.043177146 = weight(_text_:und in 222) [ClassicSimilarity], result of:
          0.043177146 = score(doc=222,freq=26.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.5297484 = fieldWeight in 222, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=222)
        0.0053371727 = product of:
          0.02134869 = sum of:
            0.02134869 = weight(_text_:m in 222) [ClassicSimilarity], result of:
              0.02134869 = score(doc=222,freq=4.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.23329206 = fieldWeight in 222, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=222)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Language
    m
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
    Type
    m
  11. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.018810144 = product of:
      0.047025356 = sum of:
        0.034569383 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.034569383 = score(doc=236,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.42413816 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.012455974 = product of:
          0.049823895 = sum of:
            0.049823895 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.049823895 = score(doc=236,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  12. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.02
    0.018330425 = product of:
      0.045826063 = sum of:
        0.04362459 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.04362459 = score(doc=1186,freq=78.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.53523815 = fieldWeight in 1186, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1186)
        0.0022014715 = product of:
          0.008805886 = sum of:
            0.008805886 = weight(_text_:m in 1186) [ClassicSimilarity], result of:
              0.008805886 = score(doc=1186,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.09622806 = fieldWeight in 1186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1186)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Type
    m
  13. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.02
    0.018193455 = product of:
      0.045483638 = sum of:
        0.042338677 = weight(_text_:und in 755) [ClassicSimilarity], result of:
          0.042338677 = score(doc=755,freq=36.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.51946104 = fieldWeight in 755, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.0031449592 = product of:
          0.012579837 = sum of:
            0.012579837 = weight(_text_:m in 755) [ClassicSimilarity], result of:
              0.012579837 = score(doc=755,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.13746867 = fieldWeight in 755, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=755)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    Type
    m
  14. Qualität in der Inhaltserschließung (2021) 0.02
    0.01801655 = product of:
      0.045041375 = sum of:
        0.04148326 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.04148326 = score(doc=753,freq=54.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.5089658 = fieldWeight in 753, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=753)
        0.003558115 = product of:
          0.01423246 = sum of:
            0.01423246 = weight(_text_:m in 753) [ClassicSimilarity], result of:
              0.01423246 = score(doc=753,freq=4.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.15552804 = fieldWeight in 753, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=753)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Editor
    Franke-Maier, M., A. Kasprzik, A. Ledl u. H. Schürmann
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
    Type
    m
  15. Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021) 0.02
    0.017567616 = product of:
      0.043919038 = sum of:
        0.039516095 = weight(_text_:und in 368) [ClassicSimilarity], result of:
          0.039516095 = score(doc=368,freq=16.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.4848303 = fieldWeight in 368, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=368)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 368) [ClassicSimilarity], result of:
              0.017611772 = score(doc=368,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 368, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=368)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  16. Hoyer, H.G.: ¬Das Falschdenkersyndrom : warum wir Menschen zwangsläufig falsch denken und was wir tun können, das möglichst abzustellen (2021) 0.02
    0.01739646 = product of:
      0.043491147 = sum of:
        0.039717197 = weight(_text_:und in 129) [ClassicSimilarity], result of:
          0.039717197 = score(doc=129,freq=22.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.48729765 = fieldWeight in 129, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=129)
        0.0037739512 = product of:
          0.015095805 = sum of:
            0.015095805 = weight(_text_:m in 129) [ClassicSimilarity], result of:
              0.015095805 = score(doc=129,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.1649624 = fieldWeight in 129, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=129)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Dieses Sachbuch beschäftigt sich mit dem Fühlen, Denken und Handeln der Menschen, speziell mit den Ursachen des "falschen" Denkens. Falsches Denken ist der entscheidende Grund für falsches Handeln und damit die wichtigste Ursache für die Probleme der Menschheit. Sicher ist, unser Denken bestimmt zu ganz wesentlichen Teilen unser Leben, falsches Denken leider auch. Was aber bestimmt unser Denken? Dieses Buch bietet Antworten auf diese Frage. Anhand von diversen Hypothesen werden Vorgänge beim Denken und das Denken selbst leicht verständlich erläutert. Beispiele aus Geschichte und Gegenwart dokumentieren Denkfehler und ihre Folgen und bieten Anregungen zum bewussten Selbstdenken. Nur wer den Prozess "Denken" und die beteiligten "Mitspieler" verstanden hat, ist in der Lage, die Symptome falschen Denkens zu erkennen, zu analysieren und damit sein Denken zu verbessern. Besseres Denken ist möglich, wie erfährt der Leser in diesem Buch.
    Content
    - Wie Fühlen, Denken und Handeln funktionieren - Folgesyndrome und konkrete Symptome des falschen Denkens
    Type
    m
  17. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.02
    0.017359657 = product of:
      0.04339914 = sum of:
        0.035925556 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.035925556 = score(doc=299,freq=18.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.007473584 = product of:
          0.029894335 = sum of:
            0.029894335 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.029894335 = score(doc=299,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  18. Scheven, E.: Qualitätssicherung in der GND (2021) 0.02
    0.01729468 = product of:
      0.043236703 = sum of:
        0.02074163 = weight(_text_:und in 314) [ClassicSimilarity], result of:
          0.02074163 = score(doc=314,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.2544829 = fieldWeight in 314, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=314)
        0.02249507 = product of:
          0.04499014 = sum of:
            0.015095805 = weight(_text_:m in 314) [ClassicSimilarity], result of:
              0.015095805 = score(doc=314,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.1649624 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
            0.029894335 = weight(_text_:22 in 314) [ClassicSimilarity], result of:
              0.029894335 = score(doc=314,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.23214069 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.5 = coord(2/4)
      0.4 = coord(2/5)
    
    Abstract
    Was mag das Akronym GND bedeuten? Lassen wir der Fantasie freien Lauf, kommen wir auf Auflösungen wie Golfer nehmen Datteln, Gerne noch Details, Glück nach Dauerstress, Größter Nutzen Deutschlands und vieles mehr. Eine ernsthaftere Recherche führt zur Gesamtnutzungsdauer oder auf einen Sachverhalt der Elektrotechnik: Die von einer Stromquelle bereitgestellte Spannung bezieht sich stets auf ein Grundniveau. Dieses Grundniveau wird auf Deutsch als Masse, im Englischen aber als ground oder GND bezeichnet. Techniker kennen das Schaltzeichen dafür: Für den informationswissenschaftlichen Bereich steht dagegen GND für die Gemeinsame Normdatei. Auch sie hat (seit 2020) ein Zeichen. Da die Gemeinsame Normdatei (im weiteren Text nur noch GND) auch ein Instrument der Inhaltserschließung ist, beeinflussen ihre Stärken und Schwächen die Qualität der Inhaltserschließung. Deshalb widmet sich dieser Artikel der Qualitätssicherung in der GND.
    Date
    23. 9.2021 19:12:22
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  19. Praxishandbuch Forschungsdatenmanagement (2021) 0.02
    0.017276252 = product of:
      0.04319063 = sum of:
        0.036963925 = weight(_text_:und in 86) [ClassicSimilarity], result of:
          0.036963925 = score(doc=86,freq=14.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.4535172 = fieldWeight in 86, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=86)
        0.0062267017 = product of:
          0.024906807 = sum of:
            0.024906807 = weight(_text_:m in 86) [ClassicSimilarity], result of:
              0.024906807 = score(doc=86,freq=4.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.27217406 = fieldWeight in 86, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=86)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Aktuelle Geschehnisse wie das Inkrafttreten des Kodex "Leitlinien zur Sicherung guter wissenschaftlicher Praxis" der Deutschen Forschungsgemeinschaft (DFG) oder der Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) und der European Open Science Cloud (EOSC) stellen Anbietende, Produzierende und Nutzende von Forschungsdaten vor fachwissenschaftliche, technische, rechtliche und organisatorische Herausforderungen. Das Praxishandbuch Forschungsdatenmanagement behandelt umfassend alle relevanten Aspekte des Forschungsdatenmanagements und der derzeitigen Rahmenbedingungen im Datenökosystem. Insbesondere die praktischen Implikationen der Datenpolitik und des -rechts, des jeweiligen Datenmarkts, der Datenkultur, der persönlichen Qualifizierung, des Datenmanagements sowie des "FAIR"en Datentransfers und der Datennachnutzung werden untersucht. Das Praxishandbuch gibt überdies einen Überblick über Projekte, Entwicklungen und Herausforderungen beim Forschungsdatenmanagement.
    Editor
    Putnings, M., H. Neuroth u. J. Neumann
    Type
    m
  20. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.02
    0.01717645 = product of:
      0.042941123 = sum of:
        0.034221943 = weight(_text_:und in 252) [ClassicSimilarity], result of:
          0.034221943 = score(doc=252,freq=12.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.41987535 = fieldWeight in 252, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.008719182 = product of:
          0.034876727 = sum of:
            0.034876727 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.034876727 = score(doc=252,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05

Languages

  • d 422
  • e 244
  • m 2
  • pt 2
  • More… Less…

Types

  • a 540
  • el 228
  • m 64
  • s 10
  • p 4
  • x 3
  • r 1
  • More… Less…

Subjects

Classifications