Search (57 results, page 3 of 3)

  • × language_ss:"d"
  • × year_i:[2020 TO 2030}
  1. Schoenbeck, O.; Schröter, M.; Werr, N.: Framework Informationskompetenz in der Hochschulbildung (2021) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 298) [ClassicSimilarity], result of:
              0.00828563 = score(doc=298,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 298, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=298)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
  2. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 428) [ClassicSimilarity], result of:
              0.00828563 = score(doc=428,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=428)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  3. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 833) [ClassicSimilarity], result of:
              0.00828563 = score(doc=833,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=833)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In den letzten Jahren ist das Angebot an Academic Search Engines für die Recherche nach Fachliteratur zu allen Wissenschaftsgebieten stark angewachsen und ergänzt die beliebten kommerziellen Angebote wie Web of Science oder Scopus. Der Artikel zeigt die wesentlichen Unterschiede zwischen bibliothekarischen Discovery-Systemen und Academic Search Engines wie Base, Dimensions oder Open Alex auf und diskutiert Möglichkeiten, wie beide von einander profitieren können. Diese Entwicklungsperspektiven betreffen Aspekte wie die Kontextualisierung von Wissen, die Datenmodellierung, die automatischen Datenanreicherung sowie den Zuschnitt von Suchräumen.
  4. Zemanek, M.: Was hat die Wahl des Jokers in der Millionenshow mit Informationskompetenz zu tun? : das Framework der ACRL in der Vermittlung von Informationskompetenz (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 305) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=305,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 305, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=305)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Einer eher ergebnisorientierten Wissensvermittlung in der Schule steht der diskurshafte Charakter der Wissensentstehung und -weitergabe in der Wissenschaft gegenüber. Im Übergang von der Schule zur Hochschule kommt Vorstellungen der Studienanfänger*innen über die Entstehung und Verlässlichkeit sowie über den Erwerb von Wissen besondere Bedeutung zu. Für Studierende sind sie eine wichtige Grundlage für das Verständnis von Wissenschaft und Forschung. Das Framework for Information Literacy for Higher Education der Association of College & Research Libraries (ACRL) formuliert diese Einsichten als Schwellenkonzepte, deren Vermittlung eine konzeptuelle Veränderung bei den Lernenden hervorrufen soll. Das Framework wird im Kontext von Problemstellungen und Erkenntnissen zur Vermittlungspraxis im Hochschulkontext dargestellt und dessen Praxistauglichkeit und Nutzen für verschiedene Zielgruppen und in verschiedenen Kontexten reflektiert. Die Schwellenkonzepte werden in Beziehung zum Konzept der "epistemischen Überzeugungen" gesetzt, die subjektives Wissen über Information und Wissen repräsentieren. Beispiele aus der Unterrichtpraxis der Autorin werden gezeigt.
  5. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 346) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=346,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 346, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  6. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 406) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=406,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  7. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 655) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=655,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 655, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=655)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Bachelorarbeit zur Erlangung des Bachelor-Grades Bachelor of Arts im Studiengang Bibliothekswissenschaft an der Fakultät für Informationswissenschaft der Technischen Hochschule Köln.
  8. Herb, U.: Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung (2023) 0.00
    0.0011836614 = product of:
      0.0035509842 = sum of:
        0.0035509842 = product of:
          0.0071019684 = sum of:
            0.0071019684 = weight(_text_:of in 794) [ClassicSimilarity], result of:
              0.0071019684 = score(doc=794,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.103663445 = fieldWeight in 794, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.046875 = fieldNorm(doc=794)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Traditionell erfolgt die Qualitätssicherung wissenschaftlicher Publikationen (ex ante, vor der Publikation) durch die als Peer Review bezeichnete Expertenbegutachtung. Die vormals vor allem in Journalen im STM-Bereich (Science, Technology, Medicine) verbreitete Peer Review findet immer stärkere Verbreitung und entwickelte sich zu einem Standardverfahren der Qualitätssicherung wissenschaftlicher Texte. Swanson & McCloskey beschreiben Peer Review als Prozess, der Expert*innen zur Bewertung eines Manuskripts einsetzt. Diese werden meist durch die Publikationsverantwortlichen (meist Journal-Herausgeber*innen) bestimmt. Die letztliche Entscheidung über die Annahme der Einreichung zur Publikation (ggf. unter Überarbeitungsauflagen) liegt jedoch bei diesen Publikationsverantwortlichen, die den einreichenden Autor*innen auch Gründe für die eventuelle Ablehnung ihres Textes mitteilen. Laut des Diskussionspapiers Peer Review and the Acceptance of new scientific Ideas dient diese der Bewertung von "competence, significance and originality, by qualified experts who research and submit work for publication in the same field (peers)"
  9. Nguyen-Kim, M.T.: ¬Die kleinste gemeinsame Wirklichkeit : wahr, falsch, plausibel? : die größten Streitfragen wissenschaftlich geprüft (2021) 0.00
    0.0011159667 = product of:
      0.0033479 = sum of:
        0.0033479 = product of:
          0.0066958 = sum of:
            0.0066958 = weight(_text_:of in 235) [ClassicSimilarity], result of:
              0.0066958 = score(doc=235,freq=4.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.09773483 = fieldWeight in 235, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=235)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    COMPASS
    Knowledge, Theory of
    Subject
    Knowledge, Theory of
  10. Schmitt, P.: Postdigital : Medienkritik im 21. Jahrhundert (2021) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 146) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=146,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 146, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=146)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die völlige Computerisierung der Lebenswelt entwickelt eine geradezu mahlstromartige Dynamik. Massenhaft sind die Köpfe über die Bildschirme gesenkt und starren auf vereinheitlichten Geräten auf die überall gleichen Apps. Von informationeller Autonomie kann keine Rede sein, dafür umso mehr von der »Fear of missing out«. Peter Schmitt analysiert in seinem fulminanten Essay diese neue Normalität. Die Gewalt dieses Umbruchs, der seit wenig mehr als zehn Jahren stattfindet, ist philosophisch noch kaum begriffen. Die Digitalisierung zerrt uns mit wachsender Dynamik in eine Existenzweise hinein, für oder gegen die wir uns nicht entscheiden können. Sprache unterliegt dem Siegeszug der binären Codierung, Musik, verfügbar wie Wasser und Gas, verliert real an Kontur und Substanz. Individualität als grundlegendes Selbstverhältnis des Menschen diffundiert im Netz und Freiheit ist in der digital verwalteten Welt bedrohter denn je. Was bedeutet es, wenn der Mensch zum permanent überwachten Programmanwender wird? Schmitt geht es weder um eine Verteufelung der uns umgebenden Technik noch um eine ängstliche Schutzhaltung. Sein Buch zielt auf ein angemessenes Verständnis des Digitalen und ein damit zusammenhängendes neues, »post­digitales« Selbstverständnis der Anwender. Der Autor plädiert für eine zeitgemäße Medienkritik, die den Blick für die Unwahrscheinlichkeit der Situation schärft, in die unsere Gesellschaft sich hineinmanövriert hat.
  11. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 338) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=338,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 338, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  12. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 367) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=367,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 367, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=367)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  13. Brandom, R.B.: Im Geiste des Vertrauens : eine Lektüre der »Phänomenologie des Geistes« (2021) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 488) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=488,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 488, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=488)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Footnote
    Originaltitel: A Spirit of trust. Rez. in: junge Welt. 2022, S.6-7: Zeller, H.: Die Heldenreise des Bewusstseins : Hegelianische Ingenieurskunst ; Robert Brandoms monumentales Werk »Im Geiste des Vertrauens«.
  14. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.00
    9.863845E-4 = product of:
      0.0029591534 = sum of:
        0.0029591534 = product of:
          0.0059183068 = sum of:
            0.0059183068 = weight(_text_:of in 1006) [ClassicSimilarity], result of:
              0.0059183068 = score(doc=1006,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.086386204 = fieldWeight in 1006, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1006)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Imprint
    Darmstadt : University of Applied Sciences | Fachbereich Gesellschaftswissenschaften
  15. Geschuhn, K.: Vertragsunterzeichnung Springer Nature und Projekt DEAL (2020) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 5654) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=5654,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 5654, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5654)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Text der Mail: "Anknüpfend an das im August 2019 unterzeichnete Memorandum of Understanding (MOU) geben Springer Nature und MPDL Services GmbH im Namen von Projekt DEAL heute bekannt, dass der formale Vertrag der bislang weltweit umfangreichsten transformativen Open-Access-Vereinbarung unterzeichnet wurde. Seit dem 1. Januar 2020 werden Publikationen in Springer Nature-Subskriptionszeitschriften aus den mehr als 700 teilnahmeberechtigten deutschen wissenschaftlichen Einrichtungen Open Access publiziert. Teilnehmende Institutionen erhalten umfassenden Zugang zum Zeitschriftenportfolio von Springer Nature. Lesen Sie die Pressemitteilung hier: https://www.hrk.de/presse/pressemitteilungen/pressemitteilung/meldung/springer-nature-und-projekt-deal-unterzeichnen-weltweit-umfangreichsten-open-access-transformationsv/ Der vollständige Vertragstext wird zusammen mit dem Start des Teilnahmeverfahrens für deutsche Einrichtungen in der zweiten Januarhälfte veröffentlicht. MPDL Services GmbH wird in den kommenden Wochen weitere Informationen zur Verfügung stellen und sich mit den teilnahmeberechtigten Institutionen in Verbindung setzen. Informationen zu den Eckpunkten der Vereinbarung finden Sie hier: https://www.projekt-deal.de/springer-nature-vertrag/ Bitte beachten Sie, dass der Start der Open-Access-Gold-Komponente auf den 1.8.2020 verschoben wurde."
  16. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 625) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=625,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 625, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=625)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  17. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 935) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=935,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=935)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.

Types

  • a 42
  • el 36
  • m 5
  • x 3
  • r 1
  • More… Less…