Search (353 results, page 1 of 18)

  • × year_i:[2020 TO 2030}
  1. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.06
    0.0576876 = product of:
      0.1153752 = sum of:
        0.1153752 = sum of:
          0.07004536 = weight(_text_:z in 374) [ClassicSimilarity], result of:
            0.07004536 = score(doc=374,freq=2.0), product of:
              0.23756456 = queryWeight, product of:
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.04451014 = queryNorm
              0.29484767 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.337313 = idf(docFreq=577, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.01517729 = weight(_text_:h in 374) [ClassicSimilarity], result of:
            0.01517729 = score(doc=374,freq=2.0), product of:
              0.11058318 = queryWeight, product of:
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.04451014 = queryNorm
              0.13724773 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4844491 = idf(docFreq=10020, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
          0.03015255 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
            0.03015255 = score(doc=374,freq=2.0), product of:
              0.15586694 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04451014 = queryNorm
              0.19345059 = fieldWeight in 374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=374)
      0.5 = coord(1/2)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
  2. Wiesenmüller, H.: Formale Erschließung (2023) 0.05
    0.054599773 = product of:
      0.10919955 = sum of:
        0.10919955 = product of:
          0.16379932 = sum of:
            0.14558657 = weight(_text_:z in 784) [ClassicSimilarity], result of:
              0.14558657 = score(doc=784,freq=6.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.61282945 = fieldWeight in 784, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=784)
            0.018212747 = weight(_text_:h in 784) [ClassicSimilarity], result of:
              0.018212747 = score(doc=784,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 784, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=784)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
  3. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.05
    0.051756006 = product of:
      0.10351201 = sum of:
        0.10351201 = product of:
          0.15526801 = sum of:
            0.14009072 = weight(_text_:z in 373) [ClassicSimilarity], result of:
              0.14009072 = score(doc=373,freq=8.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.58969533 = fieldWeight in 373, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
            0.01517729 = weight(_text_:h in 373) [ClassicSimilarity], result of:
              0.01517729 = score(doc=373,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.13724773 = fieldWeight in 373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
  4. Fassbender, J.: Register / Indexe (2023) 0.05
    0.045694556 = product of:
      0.09138911 = sum of:
        0.09138911 = product of:
          0.13708366 = sum of:
            0.11887092 = weight(_text_:z in 785) [ClassicSimilarity], result of:
              0.11887092 = score(doc=785,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.5003731 = fieldWeight in 785, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=785)
            0.018212747 = weight(_text_:h in 785) [ClassicSimilarity], result of:
              0.018212747 = score(doc=785,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 785, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=785)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Der Fokus dieses Artikels liegt auf der Indexerstellung von Publikationen, d. h. der detaillierten Indexierung der Inhalte von Dokumenten statt der Indexierung auf Dokumentebene, welche sich auf das Gesamtthema von Dokumenten beschränkt. Zu letzterer zählen z. B. das Hauptthema von Artikeln, die Sachkatalogisierung von Büchern oder die Erschließung von Objekten in der Museumsdokumentation. Die Worte Index und Register werden synonym benutzt. Das Wort Index ist nicht nur ein Homonym aus unterschiedlichen Bereichen (z. B. Finanzwesen, Mathematik), sondern auch ein Polysem im Publikationswesen, da es in romanischen Sprachen sowohl Inhaltsverzeichnis als auch Register meinen kann. Während im Finanzwesen, Mathematik u. a. die Pluralform Indizes benutzt wird, ist im bibliographischen Sinn Indexe der korrekte Plural (engl.: indexes), es sei denn, es geht um Indices zu alten Werken in lateinischer Sprache (index rerum, index nominum, index verborum). Etymologie, Bedeutung und Plural des Wortes Index erläutert Wellisch ausführlich.
  5. Wu, Z.; Li, R.; Zhou, Z.; Guo, J.; Jiang, J.; Su, X.: ¬A user sensitive subject protection approach for book search service (2020) 0.04
    0.04307055 = product of:
      0.0861411 = sum of:
        0.0861411 = product of:
          0.12921165 = sum of:
            0.0990591 = weight(_text_:z in 5617) [ClassicSimilarity], result of:
              0.0990591 = score(doc=5617,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 5617, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5617)
            0.03015255 = weight(_text_:22 in 5617) [ClassicSimilarity], result of:
              0.03015255 = score(doc=5617,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19345059 = fieldWeight in 5617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5617)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    6. 1.2020 17:22:25
  6. Förster, F.: Zuweisung von Katalogdatensätzen an Personennormdatensätze mittels Wahrscheinlichkeiten (2020) 0.04
    0.039770573 = product of:
      0.07954115 = sum of:
        0.07954115 = product of:
          0.11931171 = sum of:
            0.098063506 = weight(_text_:z in 42) [ClassicSimilarity], result of:
              0.098063506 = score(doc=42,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41278675 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
            0.021248205 = weight(_text_:h in 42) [ClassicSimilarity], result of:
              0.021248205 = score(doc=42,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19214681 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=42)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Im Juni 2020 werden die Tn-Sätze in der Gemeinsamen Normdatei (GND) gelöscht. Die Tp-Sätze für eindeutig identifizierbare Personen bleiben im Bereich des Personenbestandes übrig. Dieser Beitrag soll eine Anreicherung und Bereinigung der Personennamensdatensätze mittels Wahrscheinlichkeiten auf der Datenbasis von GND und k10plus anregen. Zu jedem Tp-Satz kann ein Profil aus verknüpften Informationen erstellt werden: z. B. über Stichwörter, fachliche Schwerpunkte, Ko-Autoren, Zeiten und Orte usw. Im gleichen Maß können abgrenzbare Profile für Tn-Sätze per Algorithmus erkannt werden. Zusätzlich könnten bestehende Verknüpfungen von Personen- in Titeldatensätzen Fehlzuweisungen aufspüren. Die Folgen eines solchen Verfahrens wären eine retrospektive Anreichung des Altbestandes und eine präzisere Ausgestaltung des Katalogs.
    Source
    B.I.T. Online. 23(2020) H.2, S.138-148
  7. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.04
    0.038078796 = product of:
      0.07615759 = sum of:
        0.07615759 = product of:
          0.114236385 = sum of:
            0.0990591 = weight(_text_:z in 791) [ClassicSimilarity], result of:
              0.0990591 = score(doc=791,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 791, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
            0.01517729 = weight(_text_:h in 791) [ClassicSimilarity], result of:
              0.01517729 = score(doc=791,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.13724773 = fieldWeight in 791, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=791)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
  8. Rösch, H.: Informationsethik (2023) 0.04
    0.038078796 = product of:
      0.07615759 = sum of:
        0.07615759 = product of:
          0.114236385 = sum of:
            0.0990591 = weight(_text_:z in 821) [ClassicSimilarity], result of:
              0.0990591 = score(doc=821,freq=4.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.41697758 = fieldWeight in 821, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=821)
            0.01517729 = weight(_text_:h in 821) [ClassicSimilarity], result of:
              0.01517729 = score(doc=821,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.13724773 = fieldWeight in 821, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=821)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
  9. Hischer, H.: ChatGPT und Mathematikunterricht : eine didaktische Herausforderung? (2023) 0.04
    0.036603715 = product of:
      0.07320743 = sum of:
        0.07320743 = product of:
          0.10981114 = sum of:
            0.08405443 = weight(_text_:z in 1058) [ClassicSimilarity], result of:
              0.08405443 = score(doc=1058,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 1058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1058)
            0.025756713 = weight(_text_:h in 1058) [ClassicSimilarity], result of:
              0.025756713 = score(doc=1058,freq=4.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.2329171 = fieldWeight in 1058, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1058)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Seit dem 30. November 2022 sind sog. "Chatbots" im Internet frei verfügbar - quasi als ansprechbarer "Avatar" für einen virtuellen "Dialog" zu einem (nahezu?) beliebigen Thema, so etwa derzeit (noch?) kostenfrei über den Link chatgpt.ch. Bereits die letzten beiden Ausgaben der Mitteilungen widmeten sich dem damit eröffnenden Themenkreis exemplarisch mit unterschiedlichen, z. T. verblüffenden Beispielen. Und sofort wurde (nicht nur mir) im Kontakt mit Kolleginnen und Kollegen aus Schule und Hochschule deutlich, dass sich hieraus Konsequenzen für künftige Prüfungsleistungen ergeben, etwa sogar in derart krasser Form, dass "häuslich erbrachte Leistungen nicht mehr bewertbar" seien. Solchen Diskussionen mit der Suche nach Lösungen und Konzepten wird nicht auszuweichen sein. In diesem Essay wird kurz der Bereich des Mathematikunterrichts an allgemeinbildenden Schulen angesprochen und dabei ein Vergleich mit der rund 30 Jahre alten didaktischen Diskussion zur sog. "Trivialisierung" des Mathematikunterrichts durch die damals aufkommenden Computeralgebrasysteme gezogen. Antworten dazu müssen in der nun anstehenden fachdidaktischen Diskussion gefunden werden. Der früher mal favorisierte und derzeit wohl kaum praktizierte "Mathematische Aufsatz" im Gymnasium wird angesichts von ChatGPT wohl definitiv nicht mehr möglich sein.
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.3, S.173-175
  10. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.04
    0.036263872 = product of:
      0.072527744 = sum of:
        0.072527744 = product of:
          0.10879161 = sum of:
            0.036425494 = weight(_text_:h in 1203) [ClassicSimilarity], result of:
              0.036425494 = score(doc=1203,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.32939452 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
            0.07236612 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.07236612 = score(doc=1203,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24
  11. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.03
    0.03408906 = product of:
      0.06817812 = sum of:
        0.06817812 = product of:
          0.102267176 = sum of:
            0.08405443 = weight(_text_:z in 808) [ClassicSimilarity], result of:
              0.08405443 = score(doc=808,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=808)
            0.018212747 = weight(_text_:h in 808) [ClassicSimilarity], result of:
              0.018212747 = score(doc=808,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=808)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
  12. Jetter, H.-C.: Mensch-Computer-Interaktion, usability und user experience (2023) 0.03
    0.03408906 = product of:
      0.06817812 = sum of:
        0.06817812 = product of:
          0.102267176 = sum of:
            0.08405443 = weight(_text_:z in 813) [ClassicSimilarity], result of:
              0.08405443 = score(doc=813,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=813)
            0.018212747 = weight(_text_:h in 813) [ClassicSimilarity], result of:
              0.018212747 = score(doc=813,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 813, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=813)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Interaktion mit Computern ist heute alltäglich. Sie ist tief in unsere physische und soziale Umgebung vorgedrungen, z. B. durch Smartphones, Personal Computer oder vernetzte Geräte im Smart Home von Fernseher bis Rauchmelder. Waren Computer einst hochtechnologische Kuriositäten in Rechenzentren, die pro Gerät von Hunderten Personen geteilt werden mussten, interagieren wir in der heutigen Ära der ubiquitären (also allgegenwärtigen) Computer tagtäglich mit Hunderten sichtbarer oder unsichtbarer Computer bei der Bewältigung unseres Alltags. Die Interaktion mit Computern ist somit zu einem festen Bestandteil unseres Alltags geworden, der zunehmend die Rolle einer Kulturtechnik einnimmt. Trotz dieser großen Relevanz entzieht sich der Begriff Mensch-Computer-Interaktion (MCI) bzw. Human-Computer Interaction (HCI) bislang einer kompakten und eindeutigen Definition. Es existieren unterschiedliche Interpretationen, die im folgenden Beitrag vorgestellt werden. Außerdem werden die beiden zentralen Qualitätskriterien der MCI erläutert: Usability bzw. Gebrauchstauglichkeit (siehe DIN EN ISO 9241-11) und User Experience (UX) bzw. Benutzererlebnis (siehe DIN EN ISO 9241-210). Abschließend wird die Relevanz der MCI für die Informationswissenschaft diskutiert.
  13. Bee, G.; Horstkotte, M.; Jahns, Y.; Karg, H.; Nadj-Guttandin, J.: Wissen, was verbindet: . O-Bib. Das Offene Bibliotheksjournal / Herausgeber VDB, 10(1), 1-15. : GND-Arbeit zwischen Terminologie und Redaktion (2023) 0.03
    0.03408906 = product of:
      0.06817812 = sum of:
        0.06817812 = product of:
          0.102267176 = sum of:
            0.08405443 = weight(_text_:z in 934) [ClassicSimilarity], result of:
              0.08405443 = score(doc=934,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.35381722 = fieldWeight in 934, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
            0.018212747 = weight(_text_:h in 934) [ClassicSimilarity], result of:
              0.018212747 = score(doc=934,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.16469726 = fieldWeight in 934, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.046875 = fieldNorm(doc=934)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Abstract
    Die Gemeinsame Normdatei (GND) ist aus dem Bibliothekswesen nicht mehr wegzudenken und wird künftig verstärkt auch in anderen Einrichtungen aus Kultur und Wissenschaft zum Einsatz kommen. Von entscheidender Bedeutung für ihre Weiterentwicklung ist die kooperative Redaktionstätigkeit der im deutschsprachigen Raum tätigen Verbundpartner*innen, die im vorliegenden Beitrag näher vorgestellt wird. Nach einem kurzen historischen Überblick werden die Schwerpunkte und Besonderheiten der gegenwärtigen Terminologiearbeit anhand von Beispielen veranschaulicht. Im Anschluss daran wird der Frage nachgegangen, wie die Redaktionsarbeit an der GND an zukünftige Herausforderungen (z. B. den zunehmenden Einsatz maschineller Erschließung und die Vernetzung mit anderen Vokabularen) angepasst werden kann.
  14. Wang, S.; Ma, Y.; Mao, J.; Bai, Y.; Liang, Z.; Li, G.: Quantifying scientific breakthroughs by a novel disruption indicator based on knowledge entities : On the rise of scrape-and-report scholarship in online reviews research (2023) 0.03
    0.033399306 = product of:
      0.06679861 = sum of:
        0.06679861 = product of:
          0.10019791 = sum of:
            0.07004536 = weight(_text_:z in 882) [ClassicSimilarity], result of:
              0.07004536 = score(doc=882,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.29484767 = fieldWeight in 882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=882)
            0.03015255 = weight(_text_:22 in 882) [ClassicSimilarity], result of:
              0.03015255 = score(doc=882,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19345059 = fieldWeight in 882, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=882)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    22. 1.2023 18:37:33
  15. Li, Z.; He, L.; Gao, D.: Ontology construction and evaluation for Chinese traditional culture : towards digital humanity (2022) 0.03
    0.033399306 = product of:
      0.06679861 = sum of:
        0.06679861 = product of:
          0.10019791 = sum of:
            0.07004536 = weight(_text_:z in 1097) [ClassicSimilarity], result of:
              0.07004536 = score(doc=1097,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.29484767 = fieldWeight in 1097, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1097)
            0.03015255 = weight(_text_:22 in 1097) [ClassicSimilarity], result of:
              0.03015255 = score(doc=1097,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.19345059 = fieldWeight in 1097, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1097)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Knowledge organization. 49(2022) no.1, S.22 - 39
  16. Koch, C.: Was ist Bewusstsein? (2020) 0.03
    0.030219894 = product of:
      0.060439788 = sum of:
        0.060439788 = product of:
          0.09065968 = sum of:
            0.03035458 = weight(_text_:h in 5723) [ClassicSimilarity], result of:
              0.03035458 = score(doc=5723,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.27449545 = fieldWeight in 5723, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5723)
            0.0603051 = weight(_text_:22 in 5723) [ClassicSimilarity], result of:
              0.0603051 = score(doc=5723,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.38690117 = fieldWeight in 5723, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5723)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    17. 1.2020 22:15:11
    Source
    Spektrum der Wissenschaft. 2020, H.2, S.12-17
  17. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.03
    0.030219894 = product of:
      0.060439788 = sum of:
        0.060439788 = product of:
          0.09065968 = sum of:
            0.03035458 = weight(_text_:h in 236) [ClassicSimilarity], result of:
              0.03035458 = score(doc=236,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.27449545 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
            0.0603051 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.0603051 = score(doc=236,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Biographed
    Maturana, H.
    Date
    7. 5.2021 22:10:24
  18. Eyert, F.: Mathematische Wissenschaftskommunikation in der digitalen Gesellschaft (2023) 0.03
    0.030219894 = product of:
      0.060439788 = sum of:
        0.060439788 = product of:
          0.09065968 = sum of:
            0.03035458 = weight(_text_:h in 1001) [ClassicSimilarity], result of:
              0.03035458 = score(doc=1001,freq=2.0), product of:
                0.11058318 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.04451014 = queryNorm
                0.27449545 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
            0.0603051 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.0603051 = score(doc=1001,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.38690117 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.22-25
  19. Yu, L.; Fan, Z.; Li, A.: ¬A hierarchical typology of scholarly information units : based on a deduction-verification study (2020) 0.03
    0.026719442 = product of:
      0.053438883 = sum of:
        0.053438883 = product of:
          0.08015832 = sum of:
            0.056036286 = weight(_text_:z in 5655) [ClassicSimilarity], result of:
              0.056036286 = score(doc=5655,freq=2.0), product of:
                0.23756456 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04451014 = queryNorm
                0.23587814 = fieldWeight in 5655, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5655)
            0.024122039 = weight(_text_:22 in 5655) [ClassicSimilarity], result of:
              0.024122039 = score(doc=5655,freq=2.0), product of:
                0.15586694 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04451014 = queryNorm
                0.15476047 = fieldWeight in 5655, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5655)
          0.6666667 = coord(2/3)
      0.5 = coord(1/2)
    
    Date
    14. 1.2020 11:15:22
  20. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.03
    0.026510214 = product of:
      0.05302043 = sum of:
        0.05302043 = product of:
          0.21208172 = sum of:
            0.21208172 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.21208172 = score(doc=862,freq=2.0), product of:
                0.37735748 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04451014 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.25 = coord(1/4)
      0.5 = coord(1/2)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN

Languages

  • d 183
  • e 169
  • m 1
  • More… Less…

Types

  • a 325
  • el 50
  • m 19
  • p 3
  • s 3
  • r 1
  • x 1
  • More… Less…

Subjects

Classifications