Search (562 results, page 1 of 29)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.14
    0.1427847 = product of:
      0.2855694 = sum of:
        0.060483553 = product of:
          0.18145065 = sum of:
            0.18145065 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.18145065 = score(doc=1000,freq=2.0), product of:
                0.38742664 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045697823 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.18145065 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.18145065 = score(doc=1000,freq=2.0), product of:
            0.38742664 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045697823 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.043635186 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.043635186 = score(doc=1000,freq=24.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(3/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.10
    0.09677368 = product of:
      0.29032102 = sum of:
        0.072580256 = product of:
          0.21774076 = sum of:
            0.21774076 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.21774076 = score(doc=862,freq=2.0), product of:
                0.38742664 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045697823 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.21774076 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.21774076 = score(doc=862,freq=2.0), product of:
            0.38742664 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.045697823 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.33333334 = coord(2/6)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Zeitz, M.: Warum der Mensch Robotern überlegen ist : Robotik (2024) 0.07
    0.07017784 = product of:
      0.21053351 = sum of:
        0.17490554 = weight(_text_:einzelne in 1207) [ClassicSimilarity], result of:
          0.17490554 = score(doc=1207,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.6502892 = fieldWeight in 1207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
        0.03562798 = weight(_text_:der in 1207) [ClassicSimilarity], result of:
          0.03562798 = score(doc=1207,freq=4.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.34902605 = fieldWeight in 1207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
      0.33333334 = coord(2/6)
    
    Abstract
    Zwar gelingen Maschinen spezielle Bewegungen überragend schnell oder präzise, und einzelne Komponenten mögen robuster und stärker sein. Aber eine umfassende Analyse zeigt nun: Wenn es darum geht, unsere alltägliche Welt zu bewältigen, liegen wir konkurrenzlos vorn - zumindest noch.
    Source
    Spektrum der Wissenschaft. 2024, H.2, S.30-32
  4. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.06
    0.06406206 = product of:
      0.12812412 = sum of:
        0.08745277 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.08745277 = score(doc=374,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.025192786 = weight(_text_:der in 374) [ClassicSimilarity], result of:
          0.025192786 = score(doc=374,freq=8.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.2467987 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.01547856 = product of:
          0.03095712 = sum of:
            0.03095712 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.03095712 = score(doc=374,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  5. Bischoff, M.: ¬Der doppelte Einstein (2023) 0.06
    0.05827753 = product of:
      0.17483258 = sum of:
        0.13992444 = weight(_text_:einzelne in 1063) [ClassicSimilarity], result of:
          0.13992444 = score(doc=1063,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.52023137 = fieldWeight in 1063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
        0.03490815 = weight(_text_:der in 1063) [ClassicSimilarity], result of:
          0.03490815 = score(doc=1063,freq=6.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.34197432 = fieldWeight in 1063, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
      0.33333334 = coord(2/6)
    
    Abstract
    Viele hatten die Hoffnung auf eine Einstein-Kachel aufgegeben: eine einzelne Fliese, die eine Ebene lückenlos bedecken kann, ohne dass sich ein periodisches Muster ergibt. Doch nun hat ein Hobby-Mathematiker die Fachwelt mit seinen Entdeckungen überrascht. Diese einem Gespenst ähnelnde Kachel gilt als »Einstein« - und ist der zweite derartige spektakuläre Fund innerhalb von wenigen Monaten.
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.12-21
  6. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.05
    0.051510543 = product of:
      0.15453163 = sum of:
        0.123676896 = weight(_text_:einzelne in 755) [ClassicSimilarity], result of:
          0.123676896 = score(doc=755,freq=4.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.4598239 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.030854736 = weight(_text_:der in 755) [ClassicSimilarity], result of:
          0.030854736 = score(doc=755,freq=12.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.30226544 = fieldWeight in 755, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
      0.33333334 = coord(2/6)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
  7. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.05
    0.050992843 = product of:
      0.15297852 = sum of:
        0.122433886 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.122433886 = score(doc=1047,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.030544633 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.030544633 = score(doc=1047,freq=6.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
  8. Fonseca, F.: Whether or when : the question on the use of theories in data science (2021) 0.04
    0.041638482 = product of:
      0.24983089 = sum of:
        0.24983089 = weight(_text_:theories in 409) [ClassicSimilarity], result of:
          0.24983089 = score(doc=409,freq=22.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            1.0008316 = fieldWeight in 409, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0390625 = fieldNorm(doc=409)
      0.16666667 = coord(1/6)
    
    Abstract
    Data Science can be considered a technique or a science. As a technique, it is more interested in the "what" than in the "why" of data. It does not need theories that explain how things work, it just needs the results. As a science, however, working strictly from data and without theories contradicts the post-empiricist view of science. In this view, theories come before data and data is used to corroborate or falsify theories. Nevertheless, one of the most controversial statements about Data Science is that it is a science that can work without theories. In this conceptual paper, we focus on the science aspect of Data Science. How is Data Science as a science? We propose a three-phased view of Data Science that shows that different theories have different roles in each of the phases we consider. We focus on when theories are used in Data Science rather than the controversy of whether theories are used in Data Science or not. In the end, we will see that the statement "Data Science works without theories" is better put as "in some of its phases, Data Science works without the theories that originally motivated the creation of the data."
  9. Fattahi, R.: Towards developing theories about data : a philosophical and scientific approach (2022) 0.04
    0.03766342 = product of:
      0.2259805 = sum of:
        0.2259805 = weight(_text_:theories in 1101) [ClassicSimilarity], result of:
          0.2259805 = score(doc=1101,freq=18.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.90528613 = fieldWeight in 1101, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1101)
      0.16666667 = coord(1/6)
    
    Abstract
    Similar to information and knowledge, data and especially big data are now known as one of the most vital elements in the 21st century since they provide multiple capabilities to individuals and organizations. However, in comparison to some theories about information and knowledge, there are no significant attempts in most scientific disciplines for building theories about data. This paper first reviews the different definitions provided about the concept of data in the works of scholars. It then identifies and explores the philosophical aspects as well as the multiple capabilities/features that can be derived from data. Finally, a starter list of some basic/general theories is developed based on the capabilities and features of data. Such new theories can be used as meta-theories to extend data theories for various scientific disciplines. The important notion supporting the development of theories about data is that, if data is so important and if data science is to continue flourishing in a variety of specialized fields and trends, then we need to build relevant theories about data for research and practical purposes in a multi-disciplinary context.
  10. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.04
    0.03754852 = product of:
      0.11264555 = sum of:
        0.08745277 = weight(_text_:einzelne in 133) [ClassicSimilarity], result of:
          0.08745277 = score(doc=133,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.3251446 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.025192786 = weight(_text_:der in 133) [ClassicSimilarity], result of:
          0.025192786 = score(doc=133,freq=8.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.2467987 = fieldWeight in 133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.33333334 = coord(2/6)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  11. Cooke, N.A.; Kitzie, V.L.: Outsiders-within-Library and Information Science : reprioritizing the marginalized in critical sociocultural work (2021) 0.04
    0.036322158 = product of:
      0.10896647 = sum of:
        0.0903922 = weight(_text_:theories in 351) [ClassicSimilarity], result of:
          0.0903922 = score(doc=351,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.36211446 = fieldWeight in 351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=351)
        0.018574271 = product of:
          0.037148543 = sum of:
            0.037148543 = weight(_text_:22 in 351) [ClassicSimilarity], result of:
              0.037148543 = score(doc=351,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.23214069 = fieldWeight in 351, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=351)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    While there are calls for new paradigms within the profession, there are also existing subgenres that fit this bill if they would be fully acknowledged. This essay argues that underrepresented and otherwise marginalized scholars have already produced significant work within social, cultural, and community-oriented paradigms; social justice and advocacy; and, diversity, equity, and inclusion. This work has not been sufficiently valued or promoted. Furthermore, the surrounding structural conditions have resulted in the dismissal, violently reviewed and rejected, and erased work of underrepresented scholars, and the stigmatization and delegitimization of their work. These scholars are "outsiders-within-LIS." By identifying the outsiders-within-LIS through the frame of standpoint theories, the authors are suggesting that a new paradigm does not need to be created; rather, an existing paradigm needs to be recognized and reprioritized. This reprioritized paradigm of critical sociocultural work has and will continue to creatively enrich and expand the field and decolonize LIS curricula.
    Date
    18. 9.2021 13:22:27
  12. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.04
    0.035431925 = product of:
      0.10629577 = sum of:
        0.06996222 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06996222 = score(doc=431,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.036333553 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.036333553 = score(doc=431,freq=26.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  13. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.03
    0.034866095 = product of:
      0.104598284 = sum of:
        0.07573632 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.07573632 = score(doc=5908,freq=6.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.028861962 = weight(_text_:der in 5908) [ClassicSimilarity], result of:
          0.028861962 = score(doc=5908,freq=42.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.28274342 = fieldWeight in 5908, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
  14. Geschuhn, K.: Vertragsunterzeichnung Springer Nature und Projekt DEAL (2020) 0.03
    0.03446141 = product of:
      0.10338423 = sum of:
        0.06996222 = weight(_text_:einzelne in 5654) [ClassicSimilarity], result of:
          0.06996222 = score(doc=5654,freq=2.0), product of:
            0.26896578 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.045697823 = queryNorm
            0.26011568 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.03342201 = weight(_text_:der in 5654) [ClassicSimilarity], result of:
          0.03342201 = score(doc=5654,freq=22.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.32741547 = fieldWeight in 5654, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
      0.33333334 = coord(2/6)
    
    Abstract
    Text der Mail: "Anknüpfend an das im August 2019 unterzeichnete Memorandum of Understanding (MOU) geben Springer Nature und MPDL Services GmbH im Namen von Projekt DEAL heute bekannt, dass der formale Vertrag der bislang weltweit umfangreichsten transformativen Open-Access-Vereinbarung unterzeichnet wurde. Seit dem 1. Januar 2020 werden Publikationen in Springer Nature-Subskriptionszeitschriften aus den mehr als 700 teilnahmeberechtigten deutschen wissenschaftlichen Einrichtungen Open Access publiziert. Teilnehmende Institutionen erhalten umfassenden Zugang zum Zeitschriftenportfolio von Springer Nature. Lesen Sie die Pressemitteilung hier: https://www.hrk.de/presse/pressemitteilungen/pressemitteilung/meldung/springer-nature-und-projekt-deal-unterzeichnen-weltweit-umfangreichsten-open-access-transformationsv/ Der vollständige Vertragstext wird zusammen mit dem Start des Teilnahmeverfahrens für deutsche Einrichtungen in der zweiten Januarhälfte veröffentlicht. MPDL Services GmbH wird in den kommenden Wochen weitere Informationen zur Verfügung stellen und sich mit den teilnahmeberechtigten Institutionen in Verbindung setzen. Informationen zu den Eckpunkten der Vereinbarung finden Sie hier: https://www.projekt-deal.de/springer-nature-vertrag/ Bitte beachten Sie, dass der Start der Open-Access-Gold-Komponente auf den 1.8.2020 verschoben wurde."
    Vgl. auch den Text in der Mail von A. Jobmann an Inetbib vom 14.01.2020: "nach mehrjährigen Verhandlungen kam es im Rahmen des Allianzprojektes DEAL am 15. Januar 2019 zu einem Vertragsabschluss mit dem Verlag Wiley und am 09.01.2020 zu einem ähnlichen Vertragsabschluss mit Springer Nature. Diese Verträge berechtigen die korrespondierenden Autorinnen und Autoren aller beteiligten Einrichtungen, ihre Publikationen in den Zeitschriften des Wiley-Verlages und Springer Nature unter einer freien Lizenz im Open Access zu publizieren. Das finanzielle Beteiligungsmodell für solche Transformationsverträge setzt derzeit noch bei den bisherigen Subskriptionszahlungen an die jeweiligen Verlage an. Mit der Open-Access-Transformation wird jedoch insbesondere die Umstellung des Standard-Geschäftsmodells für issenschaftliche Verlage von Subskription auf das Open-Access-Publizieren angestrebt. Damit verbunden sind Änderungen in den Geschäftsprozessen und der Abrechnungslogik, in deren Zentrum zukünftig die einzelne Publikation steht.
  15. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.030446097 = product of:
      0.09133829 = sum of:
        0.060483553 = product of:
          0.18145065 = sum of:
            0.18145065 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.18145065 = score(doc=5669,freq=2.0), product of:
                0.38742664 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045697823 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.030854736 = weight(_text_:der in 5669) [ClassicSimilarity], result of:
          0.030854736 = score(doc=5669,freq=12.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.30226544 = fieldWeight in 5669, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.33333334 = coord(2/6)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  16. Hajibayova, L.: (Un)theorizing citizen science : investigation of theories applied to citizen science studies (2020) 0.03
    0.030442983 = product of:
      0.1826579 = sum of:
        0.1826579 = weight(_text_:theories in 5919) [ClassicSimilarity], result of:
          0.1826579 = score(doc=5919,freq=6.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.73173416 = fieldWeight in 5919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5919)
      0.16666667 = coord(1/6)
    
    Abstract
    This article provides an analysis of theories and methodologies that have been applied in citizen science research. This study suggests a significant contribution of citizen science to various disciplines as well as overall science education, literacy, and development. A solid theoretical grounding of citizen science research, coupled with application of pertinent emergent theories to various processes associated with scientific inquiry and discovery, suggests the disciplinary traits and unique contributions. This study proposes that the current pace of citizen science research, empowered by ordinary citizens as well as technological affordances, provides solid evidence to warrant further development of citizen science as a unique discipline that can strengthen and democratize scientific inquiry.
  17. Barité, M.; Parentelli, V.; Rodríguez Casaballe, N.; Suárez, M.V.: Interdisciplinarity and postgraduate teaching of knowledge organization (KO) : elements for a necessary dialogue (2023) 0.03
    0.030268466 = product of:
      0.0908054 = sum of:
        0.07532684 = weight(_text_:theories in 1125) [ClassicSimilarity], result of:
          0.07532684 = score(doc=1125,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.30176204 = fieldWeight in 1125, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1125)
        0.01547856 = product of:
          0.03095712 = sum of:
            0.03095712 = weight(_text_:22 in 1125) [ClassicSimilarity], result of:
              0.03095712 = score(doc=1125,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.19345059 = fieldWeight in 1125, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1125)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Interdisciplinarity implies the previous existence of disciplinary fields and not their dissolution. As a general objective, we propose to establish an initial approach to the emphasis given to interdisciplinarity in the teaching of KO, through the teaching staff responsible for postgraduate courses focused on -or related to the KO, in Ibero-American universities. For conducting the research, the framework and distribution of a survey addressed to teachers is proposed, based on four lines of action: 1. The way teachers manage the concept of interdisciplinarity. 2. The place that teachers give to interdisciplinarity in KO. 3. Assessment of interdisciplinary content that teachers incorporate into their postgraduate courses. 4. Set of teaching strategies and resources used by teachers to include interdisciplinarity in the teaching of KO. The study analyzed 22 responses. Preliminary results show that KO teachers recognize the influence of other disciplines in concepts, theories, methods, and applications, but no consensus has been reached regarding which disciplines and authors are the ones who build interdisciplinary bridges. Among other conclusions, the study strongly suggests that environmental and social tensions are reflected in subject representation, especially in the construction of friendly knowl­edge organization systems with interdisciplinary visions, and in the expressions through which information is sought.
  18. Butlin, P.; Long, R.; Elmoznino, E.; Bengio, Y.; Birch, J.; Constant, A.; Deane, G.; Fleming, S.M.; Frith, C.; Ji, X.; Kanai, R.; Klein, C.; Lindsay, G.; Michel, M.; Mudrik, L.; Peters, M.A.K.; Schwitzgebel, E.; Simon, J.; VanRullen, R.: Consciousness in artificial intelligence : insights from the science of consciousness (2023) 0.03
    0.030130735 = product of:
      0.1807844 = sum of:
        0.1807844 = weight(_text_:theories in 1214) [ClassicSimilarity], result of:
          0.1807844 = score(doc=1214,freq=8.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.7242289 = fieldWeight in 1214, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=1214)
      0.16666667 = coord(1/6)
    
    Abstract
    Whether current or near-term AI systems could be conscious is a topic of scientific interest and increasing public concern. This report argues for, and exemplifies, a rigorous and empirically grounded approach to AI consciousness: assessing existing AI systems in detail, in light of our best-supported neuroscientific theories of consciousness. We survey several prominent scientific theories of consciousness, including recurrent processing theory, global workspace theory, higher-order theories, predictive processing, and attention schema theory. From these theories we derive "indicator properties" of consciousness, elucidated in computational terms that allow us to assess AI systems for these properties. We use these indicator properties to assess several recent AI systems, and we discuss how future systems might implement them. Our analysis suggests that no current AI systems are conscious, but also suggests that there are no obvious technical barriers to building AI systems which satisfy these indicators.
  19. Koch, C.: Was ist Bewusstsein? (2020) 0.03
    0.027114231 = product of:
      0.08134269 = sum of:
        0.050385572 = weight(_text_:der in 5723) [ClassicSimilarity], result of:
          0.050385572 = score(doc=5723,freq=8.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.4935974 = fieldWeight in 5723, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5723)
        0.03095712 = product of:
          0.06191424 = sum of:
            0.06191424 = weight(_text_:22 in 5723) [ClassicSimilarity], result of:
              0.06191424 = score(doc=5723,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.38690117 = fieldWeight in 5723, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5723)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Erst allmählich lüften Naturwissenschaftler ein Geheimnis, das Philosophen seit der Antike beschäftigt. Das menschliche Gehirn gehört zu den größten Rätseln der Biologie: Wo sitzt hier der Ursprung unseres Bewusstseins?
    Date
    17. 1.2020 22:15:11
    Source
    Spektrum der Wissenschaft. 2020, H.2, S.12-17
  20. Ibrahim, G.M.; Taylor, M.: Krebszellen manipulieren Neurone : Gliome (2023) 0.03
    0.026634041 = product of:
      0.07990212 = sum of:
        0.042753577 = weight(_text_:der in 1203) [ClassicSimilarity], result of:
          0.042753577 = score(doc=1203,freq=4.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.4188313 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1203)
        0.037148543 = product of:
          0.074297085 = sum of:
            0.074297085 = weight(_text_:22 in 1203) [ClassicSimilarity], result of:
              0.074297085 = score(doc=1203,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.46428138 = fieldWeight in 1203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1203)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Hirntumoren können synaptische Verbindungen mit Nervenzellen knüpfen und wachsen auf Kosten der kognitiven Fähigkeiten weiter heran. Das hat fatale Folgen.
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.22-24

Languages

  • d 427
  • e 131
  • m 2
  • More… Less…

Types

  • a 443
  • el 217
  • m 51
  • s 9
  • p 3
  • x 3
  • r 1
  • More… Less…

Subjects

Classifications