Search (444 results, page 2 of 23)

  • × language_ss:"d"
  • × year_i:[2020 TO 2030}
  1. Rösch, H.: Informationsethik (2023) 0.05
    0.046709713 = product of:
      0.093419425 = sum of:
        0.01887513 = weight(_text_:von in 821) [ClassicSimilarity], result of:
          0.01887513 = score(doc=821,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=821)
        0.074544296 = product of:
          0.111816436 = sum of:
            0.0049859053 = weight(_text_:a in 821) [ClassicSimilarity], result of:
              0.0049859053 = score(doc=821,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.090081796 = fieldWeight in 821, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=821)
            0.10683053 = weight(_text_:z in 821) [ClassicSimilarity], result of:
              0.10683053 = score(doc=821,freq=4.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.41697758 = fieldWeight in 821, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=821)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Der Terminus Informationsethik (information ethics) wurde Ende der 1980er Jahre im bibliothekarischen Umfeld geprägt und tauchte etwa zeitgleich in den USA und Deutschland auf. Informationsethik umfasst alle ethisch relevanten Fragen, die im Zusammenhang mit Produktion, Speicherung, Erschließung, Verteilung und Nutzung von Informationen auftreten. Informationsethik gehört zu den angewandten oder Bereichsethiken, die sich in den vergangenen Jahrzehnten in großer Zahl gebildet haben. Dazu zählen etwa Wirtschaftsethik, Medizinethik, Technikethik, Computerethik oder Medienethik. Zu beobachten ist ein Trend zu immer spezifischeren Bereichsethiken wie z. B. der Lebensmittelethik oder der Algorithmenethik. Aufteilung und Abgrenzung der Bereichsethiken folgen keinem einheitlichen Prinzip. Daher schwanken ihre Anzahl und ihre Benennungen in der Fachliteratur erheblich. Bereichsethiken überlappen sich z. T. oder stehen bisweilen in einem komplementären Verhältnis. So hat die Informationsethik ohne Zweifel u. a. Bezüge zur Medienethik, zur Technikethik (Computerethik), zur Wirtschaftsethik, zur Wissenschaftsethik und natürlich zur Sozialethik. Im Unterschied zur Allgemeinen Ethik, die sich mit übergreifenden, allgemeinen Aspekten wie Freiheit, Gerechtigkeit oder Wahrhaftigkeit auseinandersetzt, übertragen angewandte Ethiken zum einen allgemeine ethische Prinzipien und Methoden auf bestimmte Lebensbereiche und Handlungsfelder. Zum anderen arbeiten sie spezifische Fragestellungen und Probleme heraus, die charakteristisch für den jeweiligen Bereich sind und die in der Allgemeinen Ethik keine Berücksichtigung finden. Angewandte Ethiken sind grundsätzlich praxisorientiert. Sie zielen darauf, die Akteure der jeweiligen Handlungsfelder für ethische Fragestellungen zu sensibilisieren und das Bewusstsein um eine gemeinsame Wertebasis, die idealerweise in einem Ethikkodex dokumentiert ist, zu stabilisieren.
    Type
    a
  2. Sokolow, A.: Chaostage bei ChatGPT (2023) 0.04
    0.043877795 = product of:
      0.08775559 = sum of:
        0.03775026 = weight(_text_:von in 1170) [ClassicSimilarity], result of:
          0.03775026 = score(doc=1170,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 1170, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=1170)
        0.05000533 = product of:
          0.075008 = sum of:
            0.0099718105 = weight(_text_:a in 1170) [ClassicSimilarity], result of:
              0.0099718105 = score(doc=1170,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.18016359 = fieldWeight in 1170, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1170)
            0.065036185 = weight(_text_:22 in 1170) [ClassicSimilarity], result of:
              0.065036185 = score(doc=1170,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 1170, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1170)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Dass Firmenchefs gefeuert werden, passiert immer wieder. Dass 90 Prozent der Mitarbeiter dem gefeuerten Boss folgen wollen, gibt es eher selten. Beim ChatGPT-Macher OpenAl entschied das den Machtkampf mit und sorgte für eine dramatische Wendung. Vgl. auch den Kommentar von Peter Müller: Der große Kampf um KI auf derselben Seite.
    Date
    27. 1.2023 16:22:55
    Type
    a
  3. Strecker, D.: Dataset Retrieval : Informationsverhalten von Datensuchenden und das Ökosystem von Data-Retrieval-Systemen (2022) 0.04
    0.043649696 = product of:
      0.08729939 = sum of:
        0.08541909 = weight(_text_:von in 4021) [ClassicSimilarity], result of:
          0.08541909 = score(doc=4021,freq=16.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.6669872 = fieldWeight in 4021, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=4021)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 4021) [ClassicSimilarity], result of:
              0.005640907 = score(doc=4021,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 4021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4021)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Verschiedene Stakeholder fordern eine bessere Verfügbarkeit von Forschungsdaten. Der Erfolg dieser Initiativen hängt wesentlich von einer guten Auffindbarkeit der publizierten Datensätze ab, weshalb Dataset Retrieval an Bedeutung gewinnt. Dataset Retrieval ist eine Sonderform von Information Retrieval, die sich mit dem Auffinden von Datensätzen befasst. Dieser Beitrag fasst aktuelle Forschungsergebnisse über das Informationsverhalten von Datensuchenden zusammen. Anschließend werden beispielhaft zwei Suchdienste verschiedener Ausrichtung vorgestellt und verglichen. Um darzulegen, wie diese Dienste ineinandergreifen, werden inhaltliche Überschneidungen von Datenbeständen genutzt, um den Metadatenaustausch zu analysieren.
    Type
    a
  4. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.04
    0.042951543 = product of:
      0.085903086 = sum of:
        0.022650154 = weight(_text_:von in 808) [ClassicSimilarity], result of:
          0.022650154 = score(doc=808,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.17686167 = fieldWeight in 808, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 808) [ClassicSimilarity], result of:
              0.004230681 = score(doc=808,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=808)
            0.09064872 = weight(_text_:z in 808) [ClassicSimilarity], result of:
              0.09064872 = score(doc=808,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=808)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
    Type
    a
  5. Hischer, H.: ChatGPT und Mathematikunterricht : eine didaktische Herausforderung? (2023) 0.04
    0.042951543 = product of:
      0.085903086 = sum of:
        0.022650154 = weight(_text_:von in 1058) [ClassicSimilarity], result of:
          0.022650154 = score(doc=1058,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.17686167 = fieldWeight in 1058, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=1058)
        0.06325293 = product of:
          0.094879396 = sum of:
            0.004230681 = weight(_text_:a in 1058) [ClassicSimilarity], result of:
              0.004230681 = score(doc=1058,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 1058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1058)
            0.09064872 = weight(_text_:z in 1058) [ClassicSimilarity], result of:
              0.09064872 = score(doc=1058,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 1058, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1058)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Seit dem 30. November 2022 sind sog. "Chatbots" im Internet frei verfügbar - quasi als ansprechbarer "Avatar" für einen virtuellen "Dialog" zu einem (nahezu?) beliebigen Thema, so etwa derzeit (noch?) kostenfrei über den Link chatgpt.ch. Bereits die letzten beiden Ausgaben der Mitteilungen widmeten sich dem damit eröffnenden Themenkreis exemplarisch mit unterschiedlichen, z. T. verblüffenden Beispielen. Und sofort wurde (nicht nur mir) im Kontakt mit Kolleginnen und Kollegen aus Schule und Hochschule deutlich, dass sich hieraus Konsequenzen für künftige Prüfungsleistungen ergeben, etwa sogar in derart krasser Form, dass "häuslich erbrachte Leistungen nicht mehr bewertbar" seien. Solchen Diskussionen mit der Suche nach Lösungen und Konzepten wird nicht auszuweichen sein. In diesem Essay wird kurz der Bereich des Mathematikunterrichts an allgemeinbildenden Schulen angesprochen und dabei ein Vergleich mit der rund 30 Jahre alten didaktischen Diskussion zur sog. "Trivialisierung" des Mathematikunterrichts durch die damals aufkommenden Computeralgebrasysteme gezogen. Antworten dazu müssen in der nun anstehenden fachdidaktischen Diskussion gefunden werden. Der früher mal favorisierte und derzeit wohl kaum praktizierte "Mathematische Aufsatz" im Gymnasium wird angesichts von ChatGPT wohl definitiv nicht mehr möglich sein.
    Type
    a
  6. Wagner, E.: Über Impfstoffe zur digitalen Identität? (2020) 0.04
    0.042904235 = product of:
      0.08580847 = sum of:
        0.03775026 = weight(_text_:von in 5846) [ClassicSimilarity], result of:
          0.03775026 = score(doc=5846,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 5846, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=5846)
        0.04805821 = product of:
          0.07208732 = sum of:
            0.007051134 = weight(_text_:a in 5846) [ClassicSimilarity], result of:
              0.007051134 = score(doc=5846,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 5846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5846)
            0.065036185 = weight(_text_:22 in 5846) [ClassicSimilarity], result of:
              0.065036185 = score(doc=5846,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 5846, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5846)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Die u.a. von Bill Gates, Microsoft, Accenture und der Rockefeller Foundation finanzierte "Digital Identity Alliance" will digitale Impfnachweise mit einer globalen biometrischen digitalen Identität verbinden, die auf Lebenszeit besteht.
    Date
    4. 5.2020 17:22:40
    Type
    a
  7. Engel, B.: Corona-Gesundheitszertifikat als Exitstrategie (2020) 0.04
    0.042904235 = product of:
      0.08580847 = sum of:
        0.03775026 = weight(_text_:von in 5906) [ClassicSimilarity], result of:
          0.03775026 = score(doc=5906,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.29476947 = fieldWeight in 5906, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=5906)
        0.04805821 = product of:
          0.07208732 = sum of:
            0.007051134 = weight(_text_:a in 5906) [ClassicSimilarity], result of:
              0.007051134 = score(doc=5906,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 5906, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5906)
            0.065036185 = weight(_text_:22 in 5906) [ClassicSimilarity], result of:
              0.065036185 = score(doc=5906,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 5906, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5906)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Geplant ist eine weitere App. Ein digitaler Immunitätsausweis zum Vorteil von Wirtschaft, Gesundheitssystem und Forschung.
    Date
    4. 5.2020 17:22:28
    Type
    a
  8. Hauff-Hartig, S.: Wissensrepräsentation durch RDF: Drei angewandte Forschungsbeispiele : Bitte recht vielfältig: Wie Wissensgraphen, Disco und FaBiO Struktur in Mangas und die Humanities bringen (2021) 0.04
    0.04057806 = product of:
      0.08115612 = sum of:
        0.042709544 = weight(_text_:von in 318) [ClassicSimilarity], result of:
          0.042709544 = score(doc=318,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3334936 = fieldWeight in 318, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=318)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 318) [ClassicSimilarity], result of:
              0.005640907 = score(doc=318,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
            0.052028947 = weight(_text_:22 in 318) [ClassicSimilarity], result of:
              0.052028947 = score(doc=318,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 318, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=318)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    In der Session "Knowledge Representation" auf der ISI 2021 wurden unter der Moderation von Jürgen Reischer (Uni Regensburg) drei Projekte vorgestellt, in denen Knowledge Representation mit RDF umgesetzt wird. Die Domänen sind erfreulich unterschiedlich, die gemeinsame Klammer indes ist die Absicht, den Zugang zu Forschungsdaten zu verbessern: - Japanese Visual Media Graph - Taxonomy of Digital Research Activities in the Humanities - Forschungsdaten im konzeptuellen Modell von FRBR
    Date
    22. 5.2021 12:43:05
    Type
    a
  9. Klarmann, S.: easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien : Anwendungsfall: Forschungsdaten (2020) 0.04
    0.038925447 = product of:
      0.07785089 = sum of:
        0.07550052 = weight(_text_:von in 58) [ClassicSimilarity], result of:
          0.07550052 = score(doc=58,freq=8.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.58953893 = fieldWeight in 58, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=58)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 58) [ClassicSimilarity], result of:
              0.007051134 = score(doc=58,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 58, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=58)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Präsentationsfolien zum sehr schönen Vortrag von Herrn Sebastian Klarmann (Software easydb) in der vergangenen Woche am Donnerstag zum Thema "easydb. Flexibles Framework zum Aufbau von Metadaten- und Medien-Repositorien. Anwendungsfall: Forschungsdaten" (vgl. Mail von A. Strauch an Inetbib vom 15.12.2020.
  10. Positionspapier der DMV zur Verwendung bibliometrischer Daten (2020) 0.04
    0.035779864 = product of:
      0.07155973 = sum of:
        0.06991446 = weight(_text_:von in 5738) [ClassicSimilarity], result of:
          0.06991446 = score(doc=5738,freq=14.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5459207 = fieldWeight in 5738, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5738)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 5738) [ClassicSimilarity], result of:
              0.004935794 = score(doc=5738,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 5738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5738)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Bibliometrische Daten werden heute zunehmend in der Evaluation von Forschungsergebnissen benutzt. Diese Anwendungen reichen von der (indirekten) Verwendung bei der Peer-Evaluation von Drittmittelanträgen über die Beurteilung von Bewerbungen in Berufungskommissionen oder Anträgen für Forschungszulagen bis hin zur systematischen Erhebung von forschungsorientierten Kennzahlen von Institutionen. Mit diesem Dokument will die DMV ihren Mitgliedern eine Diskussionsgrundlage zur Verwendung bibliometrischer Daten im Zusammenhang mit der Evaluation von Personen und Institutionen im Fachgebiet Mathematik zur Verfügung stellen, insbesondere auch im Vergleich zu anderen Fächern. Am Ende des Texts befindet sich ein Glossar, in dem die wichtigsten Begriffe kurz erläutert werden.
    Type
    a
  11. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.04
    0.035779864 = product of:
      0.07155973 = sum of:
        0.06991446 = weight(_text_:von in 1047) [ClassicSimilarity], result of:
          0.06991446 = score(doc=1047,freq=14.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5459207 = fieldWeight in 1047, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 1047) [ClassicSimilarity], result of:
              0.004935794 = score(doc=1047,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 1047, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1047)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
    Type
    a
  12. Ungváry, R.; Király, P.: Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen (2021) 0.03
    0.03470501 = product of:
      0.06941002 = sum of:
        0.067529716 = weight(_text_:von in 371) [ClassicSimilarity], result of:
          0.067529716 = score(doc=371,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.52729964 = fieldWeight in 371, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=371)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 371) [ClassicSimilarity], result of:
              0.005640907 = score(doc=371,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=371)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Király (2019a) beschreibt eine neuartige Methodologie der systematischen Analyse der Bewertung der Qualität von MARC-21-Datensätzen. In seiner Forschungsarbeit untersucht er die Gesamtkataloge von 16 wichtigen Nationalund Forschungsbibliotheken. Die Ergebnisse beleuchten einige typische Probleme und liefern hilfreiche Messgrößen für das Verständnis von qualitätsentscheidenden Strukturmerkmalen eines Katalogs. In dieser weiterführenden Studie wollen wir eine tiefergehende Analyse einer kleineren Menge von Katalogen durchführen.
    Type
    a
  13. Assfalg, R.: Metadaten (2023) 0.03
    0.03470501 = product of:
      0.06941002 = sum of:
        0.067529716 = weight(_text_:von in 787) [ClassicSimilarity], result of:
          0.067529716 = score(doc=787,freq=10.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.52729964 = fieldWeight in 787, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=787)
        0.0018803024 = product of:
          0.005640907 = sum of:
            0.005640907 = weight(_text_:a in 787) [ClassicSimilarity], result of:
              0.005640907 = score(doc=787,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=787)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
    Type
    a
  14. Sewing, S.: Bestandserhaltung und Archivierung : Koordinierung auf der Basis eines gemeinsamen Metadatenformates in den deutschen und österreichischen Bibliotheksverbünden (2021) 0.03
    0.034617208 = product of:
      0.069234416 = sum of:
        0.039231222 = weight(_text_:von in 266) [ClassicSimilarity], result of:
          0.039231222 = score(doc=266,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.30633342 = fieldWeight in 266, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=266)
        0.030003196 = product of:
          0.045004793 = sum of:
            0.005983086 = weight(_text_:a in 266) [ClassicSimilarity], result of:
              0.005983086 = score(doc=266,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10809815 = fieldWeight in 266, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
            0.039021708 = weight(_text_:22 in 266) [ClassicSimilarity], result of:
              0.039021708 = score(doc=266,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.23214069 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=266)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    In den Handlungsempfehlungen der Koordinierungsstelle für die Erhaltung des schriftlichen Kulturguts (KEK) von 2015 (KEK-Handlungsempfehlungen) wird ein nationaler Standard bei der Dokumentation von Bestandserhaltung gefordert: "In den Bibliothekskatalogen sollten künftig für den verbundübergreifenden Abgleich Bestandserhaltungsmaßnahmen für die Bestände ab 1851 [.] in standardisierter Form dokumentiert und recherchierbar gemacht werden. Dies bedarf einer gemeinsamen Festlegung mit den Bibliotheksverbünden [.]." In den KEK-Handlungsempfehlungen werden auf der Basis einer im Jahr 2015 erfolgten Erhebung für Monografien fast neun Millionen Bände aus dem Zeitabschnitt 1851-1990 als Pflichtexemplare an Bundes- und Ländereinrichtungen angegeben, die akut vom Papierzerfall bedroht und als erste Stufe einer Gesamtstrategie zu entsäuern sind. Ein Ziel der KEK ist es, standardisierte und zertifizierte Verfahren zur Massenentsäuerung zu fördern. Im Metadatenformat sind zunächst fünf Verfahren der Massenentsäuerung in Form von kontrolliertem Vokabular dokumentiert: DEZ, Mg3/MBG, METE, MgO, MMMC[2]. Mit diesen Angaben, die gezielt selektiert werden können, ist mittel- und langfristig die Anwendung einzelner Verfahren der Massenentsäuerung abrufbar und statistisch auswertbar.
    Date
    22. 5.2021 12:43:05
    Location
    A
    Type
    a
  15. Heisig, P.: Informationswissenschaft für Wissensmanager : Was Wissensmanager von der informationswissenschaftlichen Forschung lernen können (2021) 0.03
    0.03432339 = product of:
      0.06864678 = sum of:
        0.030200208 = weight(_text_:von in 223) [ClassicSimilarity], result of:
          0.030200208 = score(doc=223,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 223, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=223)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 223) [ClassicSimilarity], result of:
              0.005640907 = score(doc=223,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 223, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=223)
            0.052028947 = weight(_text_:22 in 223) [ClassicSimilarity], result of:
              0.052028947 = score(doc=223,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 223, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=223)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Date
    22. 1.2021 14:38:21
    Type
    a
  16. Rieger, F.: Lügende Computer (2023) 0.03
    0.03432339 = product of:
      0.06864678 = sum of:
        0.030200208 = weight(_text_:von in 912) [ClassicSimilarity], result of:
          0.030200208 = score(doc=912,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0625 = fieldNorm(doc=912)
        0.03844657 = product of:
          0.057669856 = sum of:
            0.005640907 = weight(_text_:a in 912) [ClassicSimilarity], result of:
              0.005640907 = score(doc=912,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10191591 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
            0.052028947 = weight(_text_:22 in 912) [ClassicSimilarity], result of:
              0.052028947 = score(doc=912,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 912, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=912)
          0.6666667 = coord(2/3)
      0.5 = coord(2/4)
    
    Abstract
    Wir leben gerade in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen "AI"-Systemen, die driften, halluzinieren, lügen und fabulieren können. Schon heute ist die Komplexität moderner Softwaresysteme so hoch, dass es kühn wäre, von striktem Determinismus zu sprechen, jedoch sind auch komplexe Algorithmen darauf angelegt, bei gleichen Eingabedaten gleiche Ergebnisse zu produzieren. Eine Ausnahme sind heute schon Algorithmen, die Zufallszahlen als Teil ihrer Eingabeparameter beinhalten oder neuronale Netze.
    Date
    16. 3.2023 19:22:55
    Type
    a
  17. Scherer, B.: ¬Die Pandemie ist kein Überfall von Außerirdischen (2020) 0.03
    0.033867873 = product of:
      0.06773575 = sum of:
        0.06538537 = weight(_text_:von in 5706) [ClassicSimilarity], result of:
          0.06538537 = score(doc=5706,freq=6.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.51055574 = fieldWeight in 5706, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=5706)
        0.002350378 = product of:
          0.007051134 = sum of:
            0.007051134 = weight(_text_:a in 5706) [ClassicSimilarity], result of:
              0.007051134 = score(doc=5706,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.12739488 = fieldWeight in 5706, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5706)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Die weltweite Verbreitung von Covid-19 führt uns die Konsequenzen unserer Lebensweise vor Augen. Im Virus begegnen wir unserem Selbst und unserer Beziehung zur Natur. Aus den Fehlern sollten wir lernen.
    Source
    https://www.faz.net/aktuell/wissen/geist-soziales/leben-im-anthropozaen-die-pandemie-ist-kein-ueberfall-von-ausserirdischen-16744840.html?printPagedArticle=true#void
    Type
    a
  18. Frick, C.; Kaier, C.: Publikationskosten für Zeitschriftenartikel abseits von Open-Access-Publikationsfonds : Lost in Transformation? (2020) 0.03
    0.03318674 = product of:
      0.06637348 = sum of:
        0.064728215 = weight(_text_:von in 69) [ClassicSimilarity], result of:
          0.064728215 = score(doc=69,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5054244 = fieldWeight in 69, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=69)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 69) [ClassicSimilarity], result of:
              0.004935794 = score(doc=69,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 69, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=69)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Mit der Etablierung von Open Access als Standardmodell des wissenschaftlichen Publizierens verlagert sich der Fokus von Subskriptions- auf Publikationskosten. Die zuverlässige und vollständige Erfassung dieser Kosten stellt eine große Herausforderung für Bibliotheken und Institutionen dar. Gründe dafür sind dezentrale Rechnungsworkflows, unterschiedliche Kostenmodelle, Nebengebühren, ein Nebeneinander von Einzel- und Pauschalgebühren und die Vermischung von Subskriptions- und Publikationskosten. Der vorliegende Beitrag analysiert zunächst die Vielfalt der unterschiedlichen Ausgaben für Artikel in wissenschaftlichen Zeitschriften. Im Anschluss zeigt er zwei Ansätze der Erfassung von dezentralen Publikationskosten auf, die zu einer besseren Steuerung und mehr Transparenz der Ausgaben für das Publizieren beitragen.
    Type
    a
  19. Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023) 0.03
    0.03318674 = product of:
      0.06637348 = sum of:
        0.064728215 = weight(_text_:von in 777) [ClassicSimilarity], result of:
          0.064728215 = score(doc=777,freq=12.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5054244 = fieldWeight in 777, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=777)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 777) [ClassicSimilarity], result of:
              0.004935794 = score(doc=777,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=777)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
    Type
    a
  20. Voß, J.: Datenqualität als Grundlage qualitativer Inhaltserschließung (2021) 0.03
    0.03273727 = product of:
      0.06547454 = sum of:
        0.06406432 = weight(_text_:von in 370) [ClassicSimilarity], result of:
          0.06406432 = score(doc=370,freq=16.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5002404 = fieldWeight in 370, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=370)
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 370) [ClassicSimilarity], result of:
              0.004230681 = score(doc=370,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 370, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=370)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Spätestens mit Beginn des 21. Jahrhunderts findet die inhaltliche Erschließung von Dokumenten praktisch ausschließlich in digitaler Form statt. Dies gilt sowohl für die fachliche Inhaltserschließung durch Bibliotheken und andere Dokumentationseinrichtungen als auch für die verschiedensten Formen inhaltlicher Beschreibung in Datenbanken - von Produktbeschreibungen im Internethandel bis zum Social Tagging. Selbst dort, wo analoge Ursprünge vorhanden sind, beispielsweise handschriftliche Notizen oder retrokonvertierte Findmittel, liegt die Sacherschließung am Ende in Form von Daten vor. Für die konkrete Ausprägung dieser Daten gibt es allerdings viele verschiedene Möglichkeiten. Der vorliegende Beitrag soll einen Überblick darüber geben, wie unterschiedliche Praktiken der Datenverarbeitung die Qualität von Inhaltserschließung beeinflussen und wie die Qualität von Erschließungsdaten beurteilt werden kann. Der Fokus liegt also nicht auf den Inhalten von Erschließungsdaten, sondern auf ihrer Form. Die Form von Daten ist keine rein technische Nebensächlichkeit, sondern durchaus relevant: So ist eine inhaltlich hervorragende Erschließung unbrauchbar, wenn die Erschließungsdaten aufgrund inkompatibler Datenformate nicht verwendet werden können. Zur qualitativen Einschätzung von Inhaltserschließung ist es daher notwendig, sich auch darüber im Klaren zu sein, wie und in welcher Form die Erschließungsdaten verarbeitet werden.
    Type
    a

Languages

Types

  • a 355
  • el 222
  • m 35
  • s 7
  • x 3
  • p 1
  • r 1
  • More… Less…

Subjects

Classifications