Search (79 results, page 4 of 4)

  • × language_ss:"d"
  • × year_i:[2020 TO 2030}
  1. Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021) 0.00
    9.861253E-4 = product of:
      0.007889003 = sum of:
        0.007889003 = weight(_text_:of in 429) [ClassicSimilarity], result of:
          0.007889003 = score(doc=429,freq=4.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.12216854 = fieldWeight in 429, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=429)
      0.125 = coord(1/8)
    
    Abstract
    In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
    Content
    Bachelorarbeit zur Erlangung des Grades Bachelor of Science Wirtschaftsinformatik des Fachbereichs Wirtschaft der Technischen Hochschule Brandenburg. Vgl. unter: https://opus4.kobv.de/opus4-fhbrb/files/2732/20210826_BT_SchulzTheresa.pdf.
  2. Schoenbeck, O.; Schröter, M.; Werr, N.: Framework Informationskompetenz in der Hochschulbildung (2021) 0.00
    9.762143E-4 = product of:
      0.0078097144 = sum of:
        0.0078097144 = weight(_text_:of in 298) [ClassicSimilarity], result of:
          0.0078097144 = score(doc=298,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.120940685 = fieldWeight in 298, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0546875 = fieldNorm(doc=298)
      0.125 = coord(1/8)
    
    Abstract
    Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
  3. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 4: "Informationskompetenz" messbar machen. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    9.762143E-4 = product of:
      0.0078097144 = sum of:
        0.0078097144 = weight(_text_:of in 428) [ClassicSimilarity], result of:
          0.0078097144 = score(doc=428,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.120940685 = fieldWeight in 428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0546875 = fieldNorm(doc=428)
      0.125 = coord(1/8)
    
  4. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.00
    9.762143E-4 = product of:
      0.0078097144 = sum of:
        0.0078097144 = weight(_text_:of in 833) [ClassicSimilarity], result of:
          0.0078097144 = score(doc=833,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.120940685 = fieldWeight in 833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
      0.125 = coord(1/8)
    
    Abstract
    In den letzten Jahren ist das Angebot an Academic Search Engines für die Recherche nach Fachliteratur zu allen Wissenschaftsgebieten stark angewachsen und ergänzt die beliebten kommerziellen Angebote wie Web of Science oder Scopus. Der Artikel zeigt die wesentlichen Unterschiede zwischen bibliothekarischen Discovery-Systemen und Academic Search Engines wie Base, Dimensions oder Open Alex auf und diskutiert Möglichkeiten, wie beide von einander profitieren können. Diese Entwicklungsperspektiven betreffen Aspekte wie die Kontextualisierung von Wissen, die Datenmodellierung, die automatischen Datenanreicherung sowie den Zuschnitt von Suchräumen.
  5. Zemanek, M.: Was hat die Wahl des Jokers in der Millionenshow mit Informationskompetenz zu tun? : das Framework der ACRL in der Vermittlung von Informationskompetenz (2021) 0.00
    8.367551E-4 = product of:
      0.0066940407 = sum of:
        0.0066940407 = weight(_text_:of in 305) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=305,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 305, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=305)
      0.125 = coord(1/8)
    
    Abstract
    Einer eher ergebnisorientierten Wissensvermittlung in der Schule steht der diskurshafte Charakter der Wissensentstehung und -weitergabe in der Wissenschaft gegenüber. Im Übergang von der Schule zur Hochschule kommt Vorstellungen der Studienanfänger*innen über die Entstehung und Verlässlichkeit sowie über den Erwerb von Wissen besondere Bedeutung zu. Für Studierende sind sie eine wichtige Grundlage für das Verständnis von Wissenschaft und Forschung. Das Framework for Information Literacy for Higher Education der Association of College & Research Libraries (ACRL) formuliert diese Einsichten als Schwellenkonzepte, deren Vermittlung eine konzeptuelle Veränderung bei den Lernenden hervorrufen soll. Das Framework wird im Kontext von Problemstellungen und Erkenntnissen zur Vermittlungspraxis im Hochschulkontext dargestellt und dessen Praxistauglichkeit und Nutzen für verschiedene Zielgruppen und in verschiedenen Kontexten reflektiert. Die Schwellenkonzepte werden in Beziehung zum Konzept der "epistemischen Überzeugungen" gesetzt, die subjektives Wissen über Information und Wissen repräsentieren. Beispiele aus der Unterrichtpraxis der Autorin werden gezeigt.
  6. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    8.367551E-4 = product of:
      0.0066940407 = sum of:
        0.0066940407 = weight(_text_:of in 346) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=346,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=346)
      0.125 = coord(1/8)
    
  7. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.00
    8.367551E-4 = product of:
      0.0066940407 = sum of:
        0.0066940407 = weight(_text_:of in 406) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=406,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
      0.125 = coord(1/8)
    
  8. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.00
    8.367551E-4 = product of:
      0.0066940407 = sum of:
        0.0066940407 = weight(_text_:of in 655) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=655,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=655)
      0.125 = coord(1/8)
    
    Footnote
    Bachelorarbeit zur Erlangung des Bachelor-Grades Bachelor of Arts im Studiengang Bibliothekswissenschaft an der Fakultät für Informationswissenschaft der Technischen Hochschule Köln.
  9. Herb, U.: Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung (2023) 0.00
    8.367551E-4 = product of:
      0.0066940407 = sum of:
        0.0066940407 = weight(_text_:of in 794) [ClassicSimilarity], result of:
          0.0066940407 = score(doc=794,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.103663445 = fieldWeight in 794, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.046875 = fieldNorm(doc=794)
      0.125 = coord(1/8)
    
    Abstract
    Traditionell erfolgt die Qualitätssicherung wissenschaftlicher Publikationen (ex ante, vor der Publikation) durch die als Peer Review bezeichnete Expertenbegutachtung. Die vormals vor allem in Journalen im STM-Bereich (Science, Technology, Medicine) verbreitete Peer Review findet immer stärkere Verbreitung und entwickelte sich zu einem Standardverfahren der Qualitätssicherung wissenschaftlicher Texte. Swanson & McCloskey beschreiben Peer Review als Prozess, der Expert*innen zur Bewertung eines Manuskripts einsetzt. Diese werden meist durch die Publikationsverantwortlichen (meist Journal-Herausgeber*innen) bestimmt. Die letztliche Entscheidung über die Annahme der Einreichung zur Publikation (ggf. unter Überarbeitungsauflagen) liegt jedoch bei diesen Publikationsverantwortlichen, die den einreichenden Autor*innen auch Gründe für die eventuelle Ablehnung ihres Textes mitteilen. Laut des Diskussionspapiers Peer Review and the Acceptance of new scientific Ideas dient diese der Bewertung von "competence, significance and originality, by qualified experts who research and submit work for publication in the same field (peers)"
  10. Nguyen-Kim, M.T.: ¬Die kleinste gemeinsame Wirklichkeit : wahr, falsch, plausibel? : die größten Streitfragen wissenschaftlich geprüft (2021) 0.00
    7.8890024E-4 = product of:
      0.006311202 = sum of:
        0.006311202 = weight(_text_:of in 235) [ClassicSimilarity], result of:
          0.006311202 = score(doc=235,freq=4.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.09773483 = fieldWeight in 235, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=235)
      0.125 = coord(1/8)
    
    COMPASS
    Knowledge, Theory of
    Subject
    Knowledge, Theory of
  11. Schmitt, P.: Postdigital : Medienkritik im 21. Jahrhundert (2021) 0.00
    6.9729594E-4 = product of:
      0.0055783675 = sum of:
        0.0055783675 = weight(_text_:of in 146) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=146,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
      0.125 = coord(1/8)
    
    Abstract
    Die völlige Computerisierung der Lebenswelt entwickelt eine geradezu mahlstromartige Dynamik. Massenhaft sind die Köpfe über die Bildschirme gesenkt und starren auf vereinheitlichten Geräten auf die überall gleichen Apps. Von informationeller Autonomie kann keine Rede sein, dafür umso mehr von der »Fear of missing out«. Peter Schmitt analysiert in seinem fulminanten Essay diese neue Normalität. Die Gewalt dieses Umbruchs, der seit wenig mehr als zehn Jahren stattfindet, ist philosophisch noch kaum begriffen. Die Digitalisierung zerrt uns mit wachsender Dynamik in eine Existenzweise hinein, für oder gegen die wir uns nicht entscheiden können. Sprache unterliegt dem Siegeszug der binären Codierung, Musik, verfügbar wie Wasser und Gas, verliert real an Kontur und Substanz. Individualität als grundlegendes Selbstverhältnis des Menschen diffundiert im Netz und Freiheit ist in der digital verwalteten Welt bedrohter denn je. Was bedeutet es, wenn der Mensch zum permanent überwachten Programmanwender wird? Schmitt geht es weder um eine Verteufelung der uns umgebenden Technik noch um eine ängstliche Schutzhaltung. Sein Buch zielt auf ein angemessenes Verständnis des Digitalen und ein damit zusammenhängendes neues, »post­digitales« Selbstverständnis der Anwender. Der Autor plädiert für eine zeitgemäße Medienkritik, die den Blick für die Unwahrscheinlichkeit der Situation schärft, in die unsere Gesellschaft sich hineinmanövriert hat.
  12. Jörs, B.: ¬Ein kleines Fach zwischen "Daten" und "Wissen" I : Anmerkungen zum (virtuellen) "16th International Symposium of Information Science" (ISI 2021", Regensburg) (2021) 0.00
    6.9729594E-4 = product of:
      0.0055783675 = sum of:
        0.0055783675 = weight(_text_:of in 338) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=338,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=338)
      0.125 = coord(1/8)
    
  13. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.00
    6.9729594E-4 = product of:
      0.0055783675 = sum of:
        0.0055783675 = weight(_text_:of in 367) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=367,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 367, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=367)
      0.125 = coord(1/8)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
  14. Brandom, R.B.: Im Geiste des Vertrauens : eine Lektüre der »Phänomenologie des Geistes« (2021) 0.00
    6.9729594E-4 = product of:
      0.0055783675 = sum of:
        0.0055783675 = weight(_text_:of in 488) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=488,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=488)
      0.125 = coord(1/8)
    
    Footnote
    Originaltitel: A Spirit of trust. Rez. in: junge Welt. 2022, S.6-7: Zeller, H.: Die Heldenreise des Bewusstseins : Hegelianische Ingenieurskunst ; Robert Brandoms monumentales Werk »Im Geiste des Vertrauens«.
  15. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.00
    6.9729594E-4 = product of:
      0.0055783675 = sum of:
        0.0055783675 = weight(_text_:of in 1006) [ClassicSimilarity], result of:
          0.0055783675 = score(doc=1006,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.086386204 = fieldWeight in 1006, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
      0.125 = coord(1/8)
    
    Imprint
    Darmstadt : University of Applied Sciences | Fachbereich Gesellschaftswissenschaften
  16. Geschuhn, K.: Vertragsunterzeichnung Springer Nature und Projekt DEAL (2020) 0.00
    5.578367E-4 = product of:
      0.004462694 = sum of:
        0.004462694 = weight(_text_:of in 5654) [ClassicSimilarity], result of:
          0.004462694 = score(doc=5654,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.06910896 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
      0.125 = coord(1/8)
    
    Abstract
    Text der Mail: "Anknüpfend an das im August 2019 unterzeichnete Memorandum of Understanding (MOU) geben Springer Nature und MPDL Services GmbH im Namen von Projekt DEAL heute bekannt, dass der formale Vertrag der bislang weltweit umfangreichsten transformativen Open-Access-Vereinbarung unterzeichnet wurde. Seit dem 1. Januar 2020 werden Publikationen in Springer Nature-Subskriptionszeitschriften aus den mehr als 700 teilnahmeberechtigten deutschen wissenschaftlichen Einrichtungen Open Access publiziert. Teilnehmende Institutionen erhalten umfassenden Zugang zum Zeitschriftenportfolio von Springer Nature. Lesen Sie die Pressemitteilung hier: https://www.hrk.de/presse/pressemitteilungen/pressemitteilung/meldung/springer-nature-und-projekt-deal-unterzeichnen-weltweit-umfangreichsten-open-access-transformationsv/ Der vollständige Vertragstext wird zusammen mit dem Start des Teilnahmeverfahrens für deutsche Einrichtungen in der zweiten Januarhälfte veröffentlicht. MPDL Services GmbH wird in den kommenden Wochen weitere Informationen zur Verfügung stellen und sich mit den teilnahmeberechtigten Institutionen in Verbindung setzen. Informationen zu den Eckpunkten der Vereinbarung finden Sie hier: https://www.projekt-deal.de/springer-nature-vertrag/ Bitte beachten Sie, dass der Start der Open-Access-Gold-Komponente auf den 1.8.2020 verschoben wurde."
  17. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.00
    5.578367E-4 = product of:
      0.004462694 = sum of:
        0.004462694 = weight(_text_:of in 625) [ClassicSimilarity], result of:
          0.004462694 = score(doc=625,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.06910896 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=625)
      0.125 = coord(1/8)
    
    Content
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  18. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.00
    5.578367E-4 = product of:
      0.004462694 = sum of:
        0.004462694 = weight(_text_:of in 935) [ClassicSimilarity], result of:
          0.004462694 = score(doc=935,freq=2.0), product of:
            0.06457475 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.041294612 = queryNorm
            0.06910896 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=935)
      0.125 = coord(1/8)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  19. Donath, A.: Nutzungsverbote für ChatGPT (2023) 0.00
    5.517632E-4 = product of:
      0.004414106 = sum of:
        0.004414106 = product of:
          0.008828212 = sum of:
            0.008828212 = weight(_text_:on in 877) [ClassicSimilarity], result of:
              0.008828212 = score(doc=877,freq=2.0), product of:
                0.090823986 = queryWeight, product of:
                  2.199415 = idf(docFreq=13325, maxDocs=44218)
                  0.041294612 = queryNorm
                0.097201325 = fieldWeight in 877, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.199415 = idf(docFreq=13325, maxDocs=44218)
                  0.03125 = fieldNorm(doc=877)
          0.5 = coord(1/2)
      0.125 = coord(1/8)
    
    Content
    "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.

Types

  • a 61
  • el 40
  • m 7
  • x 3
  • s 2
  • r 1
  • More… Less…