Search (422 results, page 1 of 22)

  • × language_ss:"d"
  • × year_i:[2020 TO 2030}
  1. Gruber, A.: Vom Knüpfen feministischer Begriffsnetze : Ariadnes Faden & geschlechtersensible Normdaten (2022) 0.29
    0.29101098 = product of:
      0.34921318 = sum of:
        0.04014019 = weight(_text_:und in 577) [ClassicSimilarity], result of:
          0.04014019 = score(doc=577,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38329202 = fieldWeight in 577, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.08565781 = weight(_text_:anwendung in 577) [ClassicSimilarity], result of:
          0.08565781 = score(doc=577,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.0485416 = weight(_text_:des in 577) [ClassicSimilarity], result of:
          0.0485416 = score(doc=577,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3709667 = fieldWeight in 577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.11969343 = weight(_text_:prinzips in 577) [ClassicSimilarity], result of:
          0.11969343 = score(doc=577,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=577)
        0.055180132 = product of:
          0.110360265 = sum of:
            0.110360265 = weight(_text_:thesaurus in 577) [ClassicSimilarity], result of:
              0.110360265 = score(doc=577,freq=4.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.50543046 = fieldWeight in 577, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=577)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Feministische Thesauri sind Begriffsnetze der Frauen*- und Geschlechterforschung, die in der bibliothekarischen Praxis jene Lücken schließen, die konventionelle Normdateien bei der Sacherschließung relevanter Literatur hinterlassen. Mit thesaurA wurde Mitte der 1990er Jahren der erste kooperative frauen*spezifische Fachthesaurus Österreichs erstellt. Der SAR-Index der Ariadne, der Frauen*- und Geschlechterdokumentationsstelle der Österreichischen Nationalbibliothek (ÖNB), ist eine lokale Weiterentwicklung. Ein Wechsel des Bibliothekssystems an der ÖNB macht eine Migration des Vokabulars erforderlich. Der Beitrag beleuchtet das Migrationsprojekt im Kontext feministischer Beschlagwortung und entwickelt Überlegungen zu kooperativen Thesaurus-Projekten weiter, die unabhängig der fachlichen Ausrichtung Relevanz entfalten können.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.1, S.262-288
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.24
    0.23610324 = product of:
      0.28332388 = sum of:
        0.04623151 = weight(_text_:und in 429) [ClassicSimilarity], result of:
          0.04623151 = score(doc=429,freq=26.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.441457 = fieldWeight in 429, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.061184157 = weight(_text_:anwendung in 429) [ClassicSimilarity], result of:
          0.061184157 = score(doc=429,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.03467257 = weight(_text_:des in 429) [ClassicSimilarity], result of:
          0.03467257 = score(doc=429,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2649762 = fieldWeight in 429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.08549531 = weight(_text_:prinzips in 429) [ClassicSimilarity], result of:
          0.08549531 = score(doc=429,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.31615835 = fieldWeight in 429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
        0.055740345 = product of:
          0.11148069 = sum of:
            0.11148069 = weight(_text_:thesaurus in 429) [ClassicSimilarity], result of:
              0.11148069 = score(doc=429,freq=8.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.5105618 = fieldWeight in 429, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=429)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
    Content
    Bachelorarbeit zur Erlangung des Grades Bachelor of Science Wirtschaftsinformatik des Fachbereichs Wirtschaft der Technischen Hochschule Brandenburg. Vgl. unter: https://opus4.kobv.de/opus4-fhbrb/files/2732/20210826_BT_SchulzTheresa.pdf.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Kempf, A.O.: Thesauri (2023) 0.23
    0.22597596 = product of:
      0.27117115 = sum of:
        0.037689745 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.037689745 = score(doc=782,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.35989314 = fieldWeight in 782, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=782)
        0.07342099 = weight(_text_:anwendung in 782) [ClassicSimilarity], result of:
          0.07342099 = score(doc=782,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=782)
        0.02402186 = weight(_text_:des in 782) [ClassicSimilarity], result of:
          0.02402186 = score(doc=782,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=782)
        0.10259437 = weight(_text_:prinzips in 782) [ClassicSimilarity], result of:
          0.10259437 = score(doc=782,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.37939 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.046875 = fieldNorm(doc=782)
        0.03344421 = product of:
          0.06688842 = sum of:
            0.06688842 = weight(_text_:thesaurus in 782) [ClassicSimilarity], result of:
              0.06688842 = score(doc=782,freq=2.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.30633712 = fieldWeight in 782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.046875 = fieldNorm(doc=782)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    In der Informationswissenschaft stehen Thesauri für kontrollierte und strukturierte Vokabulare, in denen Begriffe, verstanden als geistige Einheiten, durch Bezeichnungen der natürlichen Sprache repräsentiert werden. Jedem Begriff werden eine Vorzugsbenennung, ein sog. Deskriptor, der bei der Inhaltserschließung als Schlagwort vergeben wird, und weitere bedeutungsgleiche oder -ähnliche Bezeichnungen, sog. Nicht-Deskriptoren, als Zugangsvokabular bzw. alternative Sucheinstiege zugewiesen. Dieser Art werden der Variabilität und der Mehrdeutigkeit natürlicher Sprache Rechnung getragen. Darüber hinaus werden zwischen Begriffen bzw. ihren Bezeichnungen spezifische, reziproke Relationen kenntlich gemacht (s. Abschnitt 1), die die Bedeutungsbeziehungen bzw. das "semantische Gefüge" zwischen den Begriffen aufzeigen. Diese Kernprinzipien dieser Wissensorganisationsmethode dienen sowohl auf Seiten der Inhaltserschließenden als auch auf Seiten der in einem Informationssystem Recherchierenden in unterschiedlicher Weise der Benutzerführung und Suchunterstützung. Als Grundlage für semantisches Retrieval etwa sorgen sie bei automatischer Erweiterung der Suchanfrage um die hinterlegten Nicht-Deskriptoren für eine erfolgreiche Suche weitgehend unabhängig vom konkreten Suchterm.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.12
    0.12453022 = product of:
      0.18679532 = sum of:
        0.06253883 = product of:
          0.18761648 = sum of:
            0.18761648 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.18761648 = score(doc=1000,freq=2.0), product of:
                0.4005917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.022208897 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.022208897 = score(doc=1000,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.028310036 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.028310036 = score(doc=1000,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.073737554 = product of:
          0.14747511 = sum of:
            0.14747511 = weight(_text_:thesaurus in 1000) [ClassicSimilarity], result of:
              0.14747511 = score(doc=1000,freq=14.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.6754099 = fieldWeight in 1000, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  5. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.11
    0.10677911 = product of:
      0.16016866 = sum of:
        0.043520372 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.043520372 = score(doc=266,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 266, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.07342099 = weight(_text_:anwendung in 266) [ClassicSimilarity], result of:
          0.07342099 = score(doc=266,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.02402186 = weight(_text_:des in 266) [ClassicSimilarity], result of:
          0.02402186 = score(doc=266,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.03841088 = score(doc=266,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
  6. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.09
    0.09044924 = product of:
      0.13567385 = sum of:
        0.038466934 = weight(_text_:und in 374) [ClassicSimilarity], result of:
          0.038466934 = score(doc=374,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3673144 = fieldWeight in 374, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.061184157 = weight(_text_:anwendung in 374) [ClassicSimilarity], result of:
          0.061184157 = score(doc=374,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.020018218 = weight(_text_:des in 374) [ClassicSimilarity], result of:
          0.020018218 = score(doc=374,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.016004534 = product of:
          0.03200907 = sum of:
            0.03200907 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.03200907 = score(doc=374,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Series
    Bibliotheks- und Informationspraxis; 70
  7. Schönbächler, E.; Strasser, T.; Himpsl-Gutermann, K.: Vom Chat zum Check : Informationskompetenz mit ChatGPT steigern (2023) 0.09
    0.0871698 = product of:
      0.1743396 = sum of:
        0.04014019 = weight(_text_:und in 924) [ClassicSimilarity], result of:
          0.04014019 = score(doc=924,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38329202 = fieldWeight in 924, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=924)
        0.08565781 = weight(_text_:anwendung in 924) [ClassicSimilarity], result of:
          0.08565781 = score(doc=924,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=924)
        0.0485416 = weight(_text_:des in 924) [ClassicSimilarity], result of:
          0.0485416 = score(doc=924,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3709667 = fieldWeight in 924, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=924)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag greift den aktuellen Diskurs um die KI-Anwendung ChatGPT und deren Bedeutung in Schule und Hochschule auf. Dabei werden durch einen Überblick über verschiedene Assistenzsysteme, die auf Künstlicher Intelligenz beruhen, Grundlagen und Unterschiede herausgearbeitet. Der Bereich der Chatbots wird näher beleuchtet, die beiden grundlegenden Arten des regelbasierten Chatbots und des Machine Learning Bots werden anhand von anschaulichen Beispielen praxisnah erklärt. Schließlich wird herausgearbeitet, dass Informationskompetenz als Schlüsselkompetenz des 21. Jahrhunderts auch die wesentliche Grundlage dafür ist, im Bildungsbereich konstruktiv mit KI-Systemen wie ChatGPT umzugehen und die wesentlichen Funktionsmechanismen zu verstehen. Ein Unterrichtsentwurf zum Thema "Biene" schließt den Praxisbeitrag ab.
  8. Schlingensiepen, J.: Generative KI in Lehre, Forschung und Transfer : Perspektiven für die Hochschulen für angewandte Wissenschaften (2024) 0.08
    0.0814071 = product of:
      0.1628142 = sum of:
        0.047976702 = weight(_text_:und in 1215) [ClassicSimilarity], result of:
          0.047976702 = score(doc=1215,freq=28.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.45812157 = fieldWeight in 1215, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1215)
        0.08652747 = weight(_text_:anwendung in 1215) [ClassicSimilarity], result of:
          0.08652747 = score(doc=1215,freq=4.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3782405 = fieldWeight in 1215, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1215)
        0.028310036 = weight(_text_:des in 1215) [ClassicSimilarity], result of:
          0.028310036 = score(doc=1215,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 1215, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1215)
      0.5 = coord(3/6)
    
    Abstract
    Die Digitalisierung und insbesondere die Entwicklung der (generativen) Künstlichen Intelligenz (KI) schreiten in einem rasanten Tempo voran. Laufend werden neue Möglichkeiten erschlossen und Horizonte eröffnet. Gesellschaft, Wissenschaft, Wirtschaft und Politik können mit dieser enormen Geschwindigkeit kaum mithalten. An den Hochschulen stellen die neuen Möglichkeiten generativer KI bisherige Lehr-, Lern- und Prüfungsformate in Frage. Zugleich stehen die Hochschulen vor der Herausforderung, die Studierenden auf eine Arbeitswelt vorzubereiten, in der generative KI-Werkzeuge allgegenwärtig sein werden. Als Partner der lokalen Industrie sind die Hochschulen als Ratgeber und Unterstützer bei der Entwicklung und Anwendung von KI-Systemen gefragt. Den Hochschulen für angewandte Wissenschaften kommt in diesem Gefüge eine besondere Rolle und Verantwortung zu. Gesellschaft und Wirtschaft erwarten von den Hochschulen für angewandte Wissenschaften, dass sie fundiertes und realistisches Wissen über die Möglichkeiten und Grenzen von Künstlicher Intelligenz bereitstellen und Nutzungskompetenz vermitteln. Die Hochschulen für angewandte Wissenschaften werden als Multiplikatoren wahrgenommen und adressiert, Anwendungsmöglichkeiten zu erschließen und Arbeitskräfte auszubilden, die die notwendigen Kompetenzen für eine erfolgreiche Anwendung Künstlicher Intelligenz in die Berufspraxis einbringen.
    Content
    Erarbeitet von der Arbeitsgruppe des Hochschullehrerbunds hlb unter Leitung von Prof. Dr.-Ing. Jörn Schlingensiepen, hlb-Vizepräsident, Hochschule Ingolstadt, beschlossen vom Bundespräsidium des Hochschullehrerbunds am 15. Dezember 2023.
  9. Bargmann, S.; Blumesberger, S.; Gruber, A.; Luef, E.; Steltzer, R.: Sacherschließung geschlechtergerecht?! : Rückblick auf den Online-Workshop am 11. Mai 2022 und Aufruf zu gemeinsamen Aktivitäten (2022) 0.07
    0.07410218 = product of:
      0.14820436 = sum of:
        0.04014019 = weight(_text_:und in 172) [ClassicSimilarity], result of:
          0.04014019 = score(doc=172,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.38329202 = fieldWeight in 172, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=172)
        0.08565781 = weight(_text_:anwendung in 172) [ClassicSimilarity], result of:
          0.08565781 = score(doc=172,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=172)
        0.022406347 = product of:
          0.044812694 = sum of:
            0.044812694 = weight(_text_:22 in 172) [ClassicSimilarity], result of:
              0.044812694 = score(doc=172,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.2708308 = fieldWeight in 172, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=172)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Der Beitrag blickt zurück auf den Online-Workshop "Geschlechtergerechte Sacherschließung", bei dem im Mai 2022 unterschiedliche Perspektiven der Geschlechtergerechtigkeit in der inhaltlichen Erschließung diskutiert wurden. Neben sprach- und bibliothekswissenschaftlichen Grundsatzfragen wurde die Gemeinsame Normdatei (GND) samt Regelwerken zur Gestaltung und Anwendung unter die geschlechtsspezifische Lupe genommen, ebenso wie feministische Fachvokabulare sowie Gender-Aspekte in der bibliothekarischen Aus- und Weiterbildung. Die Veranstaltung verstand sich als Auftakt, der Bericht beinhaltet einen Aufruf zu weiteren gemeinsamen Aktivitäten.
    Date
    15. 2.2023 14:30:22
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 75(2022) H.2, S.499-516
  10. Fischer, E.P.: Wissenschaft rettet die Welt (2020) 0.07
    0.07110661 = product of:
      0.14221323 = sum of:
        0.036266975 = weight(_text_:und in 5785) [ClassicSimilarity], result of:
          0.036266975 = score(doc=5785,freq=16.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34630734 = fieldWeight in 5785, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5785)
        0.061184157 = weight(_text_:anwendung in 5785) [ClassicSimilarity], result of:
          0.061184157 = score(doc=5785,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 5785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5785)
        0.044762097 = weight(_text_:des in 5785) [ClassicSimilarity], result of:
          0.044762097 = score(doc=5785,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.3420828 = fieldWeight in 5785, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5785)
      0.5 = coord(3/6)
    
    Content
    Boyles Wunschliste an die Wissenschaft (S.12-13) Etliche Wünsche wurden erfüllt, andere bestehen weiter, manche klingen heute rätselhaft: Verlängerung des Lebens + Erhalt der Jugend - zumindest einige ihrer Merkmale wie Zähne, Haarfarbe + Die Kunst des Fliegens + Die Kunst, lange unter Wasser zu bleiben + Heilung von Wunden aus einiger Entfernung + Heilung von Krankheiten auf Distanz oder durch Transplantation + Das Erreichen gigantischer Dimensionen + Die Nachahmung von Fischen ohne Maschinen durch Übung und Erziehung + Beschleunigung der Produktion von Dingen aus Samen + Umwandlung von Metallen + Formbarkeit von Glas + Umwandlung von Lebewesen + Universelles Lösungsmittel (Alkahest) + Herstellung von parabolischen und hyperbolischen Gläsern + Leichte und extrem harte Rüstung + Praktikable und sichere Art, Längengrade zu messen + Verwendung von Pendeln auf See und auf Reisen und ihre Anwendung für Uhren + Medikamente zur Steigerung der Vorstellungskraft, des Wachzustands, des Gedächtnisses, zur Schmerzlinderung, als Schlaf- und Beruhigungsmittel + Unsinkbare Schiffe, die mit allen Winden segeln + Beseitigung der Notwendigkeit, viel zu schlafen + Erfreuliche Träume durch den vom französischen Autor erwähnten Pilz + Große Kraft und Beweglichkeit des Körpers + Ewiges Licht + Durch Reiben parfümierbare Lacke
  11. Behrens, R.: Version 1.1 der RNAB erschienen (2022) 0.07
    0.07089945 = product of:
      0.1417989 = sum of:
        0.034405876 = weight(_text_:und in 803) [ClassicSimilarity], result of:
          0.034405876 = score(doc=803,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.328536 = fieldWeight in 803, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
        0.07342099 = weight(_text_:anwendung in 803) [ClassicSimilarity], result of:
          0.07342099 = score(doc=803,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
        0.03397204 = weight(_text_:des in 803) [ClassicSimilarity], result of:
          0.03397204 = score(doc=803,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 803, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=803)
      0.5 = coord(3/6)
    
    Abstract
    Mailtext: "die Arbeitsgruppe RNAB des Standardisierungsausschusses freut sich, die Aktualisierung der 2019 erstmals veröffentlichten "Ressourcenerschließung mit Normdaten für Archive und Bibliotheken, (RNAB)" vorzulegen. Die hier präsentierte Version 1.1 ist keine grundsätzlich neue Fassung dieses Regelwerks. Es wurden überwiegend kleine Korrekturen und Ergänzungen im Text vorgenommen. Größere Veränderungen gibt es lediglich bei der stärkeren Abgrenzung des Werkbegriffs gegenüber der RDA und beim kontrollierten Vokabular. Schließlich behandelt das Regelwerk nunmehr die Nachlassbibliotheken als eigenständigen Sammelschwerpunkt. Sie finden die aktualisiert Version 1.1 auf der Website der Deutschen Nationalbibliothek unter DNB - Standards<https://www.dnb.de/DE/Professionell/Standardisierung/Standards/standards_node.html>. Um die Änderungen leichter nachvollziehen zu können, wird zusätzlich eine Fassung mit Markierungen zur Verfügung gestellt. Der Standardisierungsausschuss hat der Aktualisierung in seiner Sitzung im Dezember 2021 zugestimmt und die RNAB zur Anwendung empfohlen. Ein besonderer Dank geht an das Redaktionsteam der RNAB: Martin Wedl (Österreichische Nationalbibliothek), Ralf Breslau (Staatsbibliothek zu Berlin) und Rudolf Probst (Schweizerische Nationalbibliothek)."
  12. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.07
    0.06695599 = product of:
      0.13391198 = sum of:
        0.044417795 = weight(_text_:und in 133) [ClassicSimilarity], result of:
          0.044417795 = score(doc=133,freq=24.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.42413816 = fieldWeight in 133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.061184157 = weight(_text_:anwendung in 133) [ClassicSimilarity], result of:
          0.061184157 = score(doc=133,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.028310036 = weight(_text_:des in 133) [ClassicSimilarity], result of:
          0.028310036 = score(doc=133,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.5 = coord(3/6)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  13. Schoenbeck, O.; Schröter, M.; Werr, N.: Making of oder Lost in translation? : Das Framework for Information Literacy for Higher Education - Herausforderungen bei der Übersetzung ins Deutsche und der bibliothekarischen Anwendung (2021) 0.06
    0.06204676 = product of:
      0.12409352 = sum of:
        0.026650677 = weight(_text_:und in 297) [ClassicSimilarity], result of:
          0.026650677 = score(doc=297,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.2544829 = fieldWeight in 297, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=297)
        0.07342099 = weight(_text_:anwendung in 297) [ClassicSimilarity], result of:
          0.07342099 = score(doc=297,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.3209477 = fieldWeight in 297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=297)
        0.02402186 = weight(_text_:des in 297) [ClassicSimilarity], result of:
          0.02402186 = score(doc=297,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.18358089 = fieldWeight in 297, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=297)
      0.5 = coord(3/6)
    
    Abstract
    Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
  14. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.06
    0.056305252 = product of:
      0.112610504 = sum of:
        0.031408124 = weight(_text_:und in 539) [ClassicSimilarity], result of:
          0.031408124 = score(doc=539,freq=12.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29991096 = fieldWeight in 539, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.061184157 = weight(_text_:anwendung in 539) [ClassicSimilarity], result of:
          0.061184157 = score(doc=539,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
        0.020018218 = weight(_text_:des in 539) [ClassicSimilarity], result of:
          0.020018218 = score(doc=539,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 539, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=539)
      0.5 = coord(3/6)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  15. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2022) 0.06
    0.05566192 = product of:
      0.11132384 = sum of:
        0.039728485 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.039728485 = score(doc=929,freq=30.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3793607 = fieldWeight in 929, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
        0.048947323 = weight(_text_:anwendung in 929) [ClassicSimilarity], result of:
          0.048947323 = score(doc=929,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
        0.022648027 = weight(_text_:des in 929) [ClassicSimilarity], result of:
          0.022648027 = score(doc=929,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.17308173 = fieldWeight in 929, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=929)
      0.5 = coord(3/6)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
    Content
    "Seit dem 30. November 2022 ist meine Welt - und die vieler Bildungsexpertinnen und Bildungsexperten - gefühlt eine andere Welt, die uns in eine "Neuzeit" führt, von der wir noch nicht wissen, ob wir sie lieben oder fürchten sollen. Der Ableger und Prototyp ChatGPT des derzeit (zumindest in der westlichen Welt) führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30. November veröffentlicht und ist seit dieser Zeit für jeden frei zugänglich und kostenlos. Was zunächst als unspektakuläre Ankündigung von OpenAI anmutete, nämlich das seit 2020 bereits verfügbare KI-Sprachmodell GPT-3 nun in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation bereitzustellen, entpuppt sich in der Anwendung - aus Sicht der Nutzerinnen und Nutzer - als Meilenstein der KI-Entwicklung. Fakt ist, dass die Leistungsvielfalt und -stärke von ChatGPT selbst IT-Expertinnen und -Experten überrascht hat und sie zu einer Fülle von Superlativen in der Bewertung veranlasst, jedoch immer in Kombination mit Hinweisen zur fehlenden Faktentreue und Verlässlichkeit derartiger generativer KI-Modelle. Mit WebGPT von OpenAI steht aber bereits ein Forschungsprototyp bereit, der mit integrierter Internetsuchfunktion die "Halluzinationen" aktueller GPT-Varianten ausmerzen könnte. Für den Bildungssektor stellt sich die Frage, wie sich das Lehren und Lernen an Hochschulen (und nicht nur dort) verändern wird, wenn derartige KI-Werkzeuge omnipräsent sind und mit ihrer Hilfe nicht nur die Hausarbeit "per Knopfdruck" erstellt werden kann. Beeindruckend ist zudem die fachliche Bandbreite von ChatGPT, siehe den Tweet von @davidtsong, der ChatGPT dem Studierfähigkeitstest SAT unterzogen hat."
    Vgl. auch den Abdruck des Beitrages in: Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.17-19. Vgl. auch ihr Video bei Youtube: https://www.youtube.com/watch?v=cMuBo_rH15c.
    Source
    https://www.forschung-und-lehre.de/lehre/chatgpt-ein-meilenstein-der-ki-entwicklung-5271
  16. Geißler, S.: Natürliche Sprachverarbeitung und Künstliche Intelligenz : ein wachsender Markt mit vielen Chancen. Das Beispiel Kairntech (2020) 0.05
    0.054936968 = product of:
      0.109873936 = sum of:
        0.02867156 = weight(_text_:und in 5924) [ClassicSimilarity], result of:
          0.02867156 = score(doc=5924,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27378 = fieldWeight in 5924, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.061184157 = weight(_text_:anwendung in 5924) [ClassicSimilarity], result of:
          0.061184157 = score(doc=5924,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
        0.020018218 = weight(_text_:des in 5924) [ClassicSimilarity], result of:
          0.020018218 = score(doc=5924,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 5924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5924)
      0.5 = coord(3/6)
    
    Abstract
    Vor rund einem Jahr haben wir an dieser Stelle die aufregende Dynamik auf den Gebieten der Natürlichen Sprachverarbeitung (NLP) und der Künstlichen Intelligenz (KI) beschrieben: Seit einigen Jahren sorgen Fortschritte in den algorithmischen Grundlagen, in der einsetzbaren Rechenleistung sowie in der Verfügbarkeit von großen Datenmengen für immer leistungsfähigere Systeme. NLP-Anwendungen seien damit mehr denn je reif für den praktischen Einsatz, hatten wir argumentiert. Diese Entwicklung verfolgen wir bei Kairntech nicht allein als interessierte Beobachter, sondern sie stellt die Grundlage unserer Arbeit dar, mit der wir NLP- und KI-Ansätze zur Anwendung auf konkreten geschäftskritischen Prozessen entwickeln und einsetzen. Experten gehen auch für die kommenden Jahre von einem anhaltenden Wachstum des weltweiten Marktes für NLP aus: Mit einem durchschnittlichen Wachstum von über 20 Prozent pro Jahr werde der Markt bis 2025 auf geschätzte 6,24 Milliarden US-$ anwachsen. Im Bereich der Forschung ist das Wachstum sogar noch stürmischer: So ist die Zahl der Einreichungen zur ACL-Konferenz, dem vielleicht wichtigsten jährlichen Event in diesem Gebiet, von 2018 bis 2019 um ganze 75 Prozent angestiegen. Im vorliegenden Text wollen wir die Richtung, die wir bei Kairntech mit der Gründung vor einem Jahr eingeschlagen haben, beschreiben sowie von ersten Erfolgen auf diesem Weg berichten.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  17. Fuhr, N.: Modelle im Information Retrieval (2023) 0.05
    0.054936968 = product of:
      0.109873936 = sum of:
        0.02867156 = weight(_text_:und in 800) [ClassicSimilarity], result of:
          0.02867156 = score(doc=800,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27378 = fieldWeight in 800, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.061184157 = weight(_text_:anwendung in 800) [ClassicSimilarity], result of:
          0.061184157 = score(doc=800,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.2674564 = fieldWeight in 800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
        0.020018218 = weight(_text_:des in 800) [ClassicSimilarity], result of:
          0.020018218 = score(doc=800,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=800)
      0.5 = coord(3/6)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  18. Jörs, B.: Informationskompetenz ist auf domänenspezifisches Vorwissen angewiesen und kann immer nur vorläufig sein : eine Antwort auf Steve Patriarca (2021) 0.05
    0.053729463 = product of:
      0.10745893 = sum of:
        0.030773548 = weight(_text_:und in 430) [ClassicSimilarity], result of:
          0.030773548 = score(doc=430,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 430, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=430)
        0.048947323 = weight(_text_:anwendung in 430) [ClassicSimilarity], result of:
          0.048947323 = score(doc=430,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=430)
        0.027738057 = weight(_text_:des in 430) [ClassicSimilarity], result of:
          0.027738057 = score(doc=430,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21198097 = fieldWeight in 430, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=430)
      0.5 = coord(3/6)
    
    Abstract
    Schon die Überschrift des Statements von Steve Patriarca belegt, dass die Anhänger der "Informationskompetenz" (Information Literacy) nach wie vor von der einfachen und naiven Annahme ausgehen, dass die reine Verfügbarkeit von "Informationskompetenz" ausreicht, um "uns die Werkzeuge" zu geben, "Quellen zu prüfen und Tatsachenbehauptungen zu verifizieren". Ohne nochmals gebetsmühlenartig die Argumente gegen eine "allgemeingültige Informationskompetenz" zu wiederholen, die es als eigenständige "Kompetenz" nicht geben kann (siehe die letzten Stellungnahmen zu diesem Unbegriff in Open Password Nr. 682, 691, 759, 960, 963, 965, 971, 979 usw.), und zudem auf die dort eingebundenen Sichten der Nachbarwissenschaften (Neurowissenschaften, Kommunikationswissenschaft usw.) zu diesem unguten Terminus der Bibliotheks- und Informationswissenschaft zu verweisen, sei hier lediglich kurz klargestellt:
    Um jegliche Quellen und Tatsachenbehauptungen prüfen und verifizieren zu können (den Begriff der "Falsifikation" lässt Steve Patriarca als Vertreter eines autoritären, eher Popper-feindlichen Wissenschaftsverständnis wohlweislich an dieser Stelle weg) sind drei Dinge entscheidend: 1. domänenspezifisches, erfahrungsbasiertes, fachlich-methodischen (Vor-)Wissen 2. die Akzeptanz einer an die Bescheidenheit des menschlichen Wissens appellierenden Vorstellung, dass "unser objektives Vermutungswissen immer weit über das hinausgeht, was ein Mensch meistern kann". Wir können also nie sicheres Wissen besitzen und die Vorstellung, man sei im Besitz einer sicheren Wahrheit, ist falsch. Sokrates alte Weisheit, "ich weiß, dass ich nicht weiß" (leider oft falsch übersetzt, da man dem Wort "nicht" noch den Buchstaben "s" angefügt hat) ist aber für viele unerträglich, da sie vermutlich ihre Autoritätsansprüche gefährdet. 3. Subjektives, nicht sicheres (Vermutungs-)Wissen ist durch Anwendung des Popper'schen Falsifikationsprinzips in der wissenschaftlichen Erkenntnissuche stets auf seinen Wahrheitsgehalt zu überprüfen. Noch einmal: Wir können nie endgültige Wahrheit "besitzen".
    Content
    Stellungnahme zu: Steve Patriarca: Informationskompetenz gibt uns die Werkzeuge, Quellen zu prüfen und Tatsachenbehauptungen zu verifizieren - Was bedeutet Poppers "Es gibt keine Autoritäten"?, in: Open Password Nr. 988.
  19. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.05
    0.05034527 = product of:
      0.10069054 = sum of:
        0.06253883 = product of:
          0.18761648 = sum of:
            0.18761648 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.18761648 = score(doc=5669,freq=2.0), product of:
                0.4005917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04725067 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.018133488 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.018133488 = score(doc=5669,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.020018218 = weight(_text_:des in 5669) [ClassicSimilarity], result of:
          0.020018218 = score(doc=5669,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.15298408 = fieldWeight in 5669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.5 = coord(3/6)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  20. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.05
    0.0496689 = product of:
      0.0993378 = sum of:
        0.046160325 = weight(_text_:und in 299) [ClassicSimilarity], result of:
          0.046160325 = score(doc=299,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4407773 = fieldWeight in 299, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.03397204 = weight(_text_:des in 299) [ClassicSimilarity], result of:
          0.03397204 = score(doc=299,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 299, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.01920544 = product of:
          0.03841088 = sum of:
            0.03841088 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.03841088 = score(doc=299,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22

Languages

Types

  • a 313
  • el 211
  • m 44
  • s 7
  • x 3
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications