Search (526 results, page 1 of 27)

  • × year_i:[2020 TO 2030}
  1. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.17
    0.16791482 = product of:
      0.33582965 = sum of:
        0.11145297 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.11145297 = score(doc=1047,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.19657157 = weight(_text_:theorien in 1047) [ClassicSimilarity], result of:
          0.19657157 = score(doc=1047,freq=4.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.7189135 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.027805127 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.027805127 = score(doc=1047,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.5 = coord(3/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.13
    0.12997854 = product of:
      0.25995708 = sum of:
        0.055058867 = product of:
          0.1651766 = sum of:
            0.1651766 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.1651766 = score(doc=1000,freq=2.0), product of:
                0.35267892 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04159925 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.1651766 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1651766 = score(doc=1000,freq=2.0), product of:
            0.35267892 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04159925 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.03972161 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.03972161 = score(doc=1000,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(3/6)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Mäder, A.: Gute Theorien, schlechte Theorien (2020) 0.10
    0.10441636 = product of:
      0.31324908 = sum of:
        0.28081653 = weight(_text_:theorien in 5794) [ClassicSimilarity], result of:
          0.28081653 = score(doc=5794,freq=4.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            1.0270193 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.078125 = fieldNorm(doc=5794)
        0.032432556 = weight(_text_:der in 5794) [ClassicSimilarity], result of:
          0.032432556 = score(doc=5794,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 5794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5794)
      0.33333334 = coord(2/6)
    
    Content
    Teil 2 einer Serie 'Grundbegriffe der Wissenschaft'.
    Source
    Spektrum der Wissenschaft. 2020, H.3, S.84-87
  4. Mäder, A.: Versuch und Irrtum (2020) 0.10
    0.095315546 = product of:
      0.28594664 = sum of:
        0.23828071 = weight(_text_:theorien in 84) [ClassicSimilarity], result of:
          0.23828071 = score(doc=84,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.8714547 = fieldWeight in 84, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.09375 = fieldNorm(doc=84)
        0.047665935 = weight(_text_:der in 84) [ClassicSimilarity], result of:
          0.047665935 = score(doc=84,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5129615 = fieldWeight in 84, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=84)
      0.33333334 = coord(2/6)
    
    Abstract
    Um Theorien zu überprüfen, sind Experimente unerlässlich. Doch wie zuverlässig ist eigentlich die empirische Basis der Wissenschaft?
    Content
    Teil 3 einer Serie 'Grundbegriffe der Wissenschaft'.
    Source
    Spektrum der Wissenschaft. 2020, H.4, S.85-87
  5. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.09
    0.0880942 = product of:
      0.26428258 = sum of:
        0.066070646 = product of:
          0.19821192 = sum of:
            0.19821192 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.19821192 = score(doc=862,freq=2.0), product of:
                0.35267892 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04159925 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.19821192 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.19821192 = score(doc=862,freq=2.0), product of:
            0.35267892 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04159925 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.33333334 = coord(2/6)
    
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  6. Bischoff, M.: ¬Das grosse Experiment (2021) 0.08
    0.07699994 = product of:
      0.23099981 = sum of:
        0.19856726 = weight(_text_:theorien in 329) [ClassicSimilarity], result of:
          0.19856726 = score(doc=329,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.72621226 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.078125 = fieldNorm(doc=329)
        0.032432556 = weight(_text_:der in 329) [ClassicSimilarity], result of:
          0.032432556 = score(doc=329,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 329, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=329)
      0.33333334 = coord(2/6)
    
    Abstract
    Zahlreiche konkurrierende wissenschaftliche Theorien versuchen, das Bewusstsein zu beschreiben. In einer noch nie da gewesenen Kollaboration finden nun weltweit Versuche an hunderten Probanden statt, um zwei der führenden Ansätze auf den Prüfstand zu stellen.
    Source
    Spektrum der Wissenschaft. 2021, H.9, S.48-53
  7. Hobohm, H.-C.: Theorien in der Informationswissenschaft (2023) 0.07
    0.07309146 = product of:
      0.21927437 = sum of:
        0.19657157 = weight(_text_:theorien in 776) [ClassicSimilarity], result of:
          0.19657157 = score(doc=776,freq=4.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.7189135 = fieldWeight in 776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=776)
        0.02270279 = weight(_text_:der in 776) [ClassicSimilarity], result of:
          0.02270279 = score(doc=776,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24431825 = fieldWeight in 776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=776)
      0.33333334 = coord(2/6)
    
    Abstract
    Die zentrale Frage in diesem Kapitel ist, welchen Einfluss Theoriediskussion, Theorieimport und Theoriebildung auf die Informationswissenschaft als Disziplin haben und ob es Theorieentwicklungen, d. h. also eigentlich Paradigmenwechsel gibt, die eine Richtung für ihre Weiterentwicklung geben können. Für eine Disziplin ist Theoretisieren so wichtig wie für einen Schachspieler das Überlegen seiner Spielstrategie (Hassan, Mathiassen & Lowry 2019, S. 200): "Wissenschaften entstehen dort, wo sie Theorien vonnöten haben." (Jahraus, 2011, S. 30) - denn sie decken nicht nur ihre Untersuchungsobjekte auf, sondern auch deren Bruchstellen und uneingestandenen Prämissen. Dieser Herausforderung sollte sich die Informationswissenschaft stellen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Döring, N.: Computervermittelte Kommunikation (2023) 0.07
    0.06793123 = product of:
      0.20379367 = sum of:
        0.15885381 = weight(_text_:theorien in 807) [ClassicSimilarity], result of:
          0.15885381 = score(doc=807,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 807, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=807)
        0.04493987 = weight(_text_:der in 807) [ClassicSimilarity], result of:
          0.04493987 = score(doc=807,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4836247 = fieldWeight in 807, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=807)
      0.33333334 = coord(2/6)
    
    Abstract
    Der vorliegende Beitrag erklärt, wie computervermittelte Kommunikation definiert ist (Abschnitt 2) und wo sie eingesetzt wird (Abschnitt 3). Anschließend wird der aktuelle Forschungsstand umrissen (Abschnitt 4). Der Schwerpunkt des Beitrags liegt auf der Darstellung zentraler Theorien der computervermittelten Kommunikation (Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  9. Zeitz, M.: Warum der Mensch Robotern überlegen ist : Robotik (2024) 0.06
    0.06388369 = product of:
      0.19165108 = sum of:
        0.15921852 = weight(_text_:einzelne in 1207) [ClassicSimilarity], result of:
          0.15921852 = score(doc=1207,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.6502892 = fieldWeight in 1207, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
        0.032432556 = weight(_text_:der in 1207) [ClassicSimilarity], result of:
          0.032432556 = score(doc=1207,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34902605 = fieldWeight in 1207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1207)
      0.33333334 = coord(2/6)
    
    Abstract
    Zwar gelingen Maschinen spezielle Bewegungen überragend schnell oder präzise, und einzelne Komponenten mögen robuster und stärker sein. Aber eine umfassende Analyse zeigt nun: Wenn es darum geht, unsere alltägliche Welt zu bewältigen, liegen wir konkurrenzlos vorn - zumindest noch.
    Source
    Spektrum der Wissenschaft. 2024, H.2, S.30-32
  10. Wiesenmüller, H.: Verbale Erschließung in Katalogen und Discovery-Systemen : Überlegungen zur Qualität (2021) 0.06
    0.058316424 = product of:
      0.11663285 = sum of:
        0.07960926 = weight(_text_:einzelne in 374) [ClassicSimilarity], result of:
          0.07960926 = score(doc=374,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.02293328 = weight(_text_:der in 374) [ClassicSimilarity], result of:
          0.02293328 = score(doc=374,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 374, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=374)
        0.01409031 = product of:
          0.02818062 = sum of:
            0.02818062 = weight(_text_:22 in 374) [ClassicSimilarity], result of:
              0.02818062 = score(doc=374,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.19345059 = fieldWeight in 374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=374)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Beschäftigt man sich mit Inhaltserschließung, so sind zunächst zwei Dimensionen zu unterscheiden - die Wissensorganisationssysteme selbst (z. B. Normdateien, Thesauri, Schlagwortsprachen, Klassifikationen und Ontologien) und die Metadaten für Dokumente, die mit diesen Wissensorganisationssystemen erschlossen sind. Beides steht in einer Wechselwirkung zueinander: Die Wissensorganisationssysteme sind die Werkzeuge für die Erschließungsarbeit und bilden die Grundlage für die Erstellung konkreter Erschließungsmetadaten. Die praktische Anwendung der Wissensorganisationssysteme in der Erschließung wiederum ist die Basis für deren Pflege und Weiterentwicklung. Zugleich haben Wissensorganisationssysteme auch einen Eigenwert unabhängig von den Erschließungsmetadaten für einzelne Dokumente, indem sie bestimmte Bereiche von Welt- oder Fachwissen modellartig abbilden. Will man nun Aussagen über die Qualität von inhaltlicher Erschließung treffen, so genügt es nicht, den Input - also die Wissensorganisationssysteme und die damit generierten Metadaten - zu betrachten. Man muss auch den Output betrachten, also das, was die Recherchewerkzeuge daraus machen und was folglich bei den Nutzer:innen konkret ankommt. Im vorliegenden Beitrag werden Überlegungen zur Qualität von Recherchewerkzeugen in diesem Bereich angestellt - gewissermaßen als Fortsetzung und Vertiefung der dazu im Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) gegebenen Hinweise. Im Zentrum steht die verbale Erschließung nach den Regeln für die Schlagwortkatalogisierung (RSWK), wie sie sich in Bibliothekskatalogen manifestiert - gleich, ob es sich dabei um herkömmliche Kataloge oder um Resource-Discovery-Systeme (RDS) handelt.
    Date
    24. 9.2021 12:22:02
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  11. Bischoff, M.: ¬Der doppelte Einstein (2023) 0.05
    0.053050704 = product of:
      0.1591521 = sum of:
        0.12737481 = weight(_text_:einzelne in 1063) [ClassicSimilarity], result of:
          0.12737481 = score(doc=1063,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.52023137 = fieldWeight in 1063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
        0.03177729 = weight(_text_:der in 1063) [ClassicSimilarity], result of:
          0.03177729 = score(doc=1063,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34197432 = fieldWeight in 1063, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
      0.33333334 = coord(2/6)
    
    Abstract
    Viele hatten die Hoffnung auf eine Einstein-Kachel aufgegeben: eine einzelne Fliese, die eine Ebene lückenlos bedecken kann, ohne dass sich ein periodisches Muster ergibt. Doch nun hat ein Hobby-Mathematiker die Fachwelt mit seinen Entdeckungen überrascht. Diese einem Gespenst ähnelnde Kachel gilt als »Einstein« - und ist der zweite derartige spektakuläre Fund innerhalb von wenigen Monaten.
    Source
    Spektrum der Wissenschaft. 2023, H.10, S.12-21
  12. Brettschneider, P.: Urheberrecht (2023) 0.05
    0.051683456 = product of:
      0.15505037 = sum of:
        0.13899708 = weight(_text_:theorien in 822) [ClassicSimilarity], result of:
          0.13899708 = score(doc=822,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5083486 = fieldWeight in 822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=822)
        0.016053297 = weight(_text_:der in 822) [ClassicSimilarity], result of:
          0.016053297 = score(doc=822,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17275909 = fieldWeight in 822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=822)
      0.33333334 = coord(2/6)
    
    Abstract
    In einer digitalen Wissensgesellschaft kommt dem Urheberrecht eine herausragende Bedeutung zu. Es ist - wie auch das Datenschutzrecht (s. Kapitel F 4 Informationelle Selbstbestimmung und Informationsfreiheit) - Kernbestandteil eines Kommunikationsrechts, das die Weitergabe und Nutzung von Informationen regelt. Daher mag es paradox klingen, dass das Urheberrecht Informationen - wie auch Ideen oder (wissenschaftliche) Theorien - überhaupt nicht schützt.1 Vielmehr greift sein Schutz erst, wenn sich Information z. B. in Form eines gedruckten oder digitalen Textes oder auch einer Rede manifestiert. Dieser richtet sich dann aber nicht auf den Informationsgehalt an sich, sondern seine Verkörperung in Form eines originellen und individuellen Werkes (s. Abschnitt 2 und 3).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Esders, M.: Sprachregime : die Macht der politischen Wahrheitssysteme (2020) 0.05
    0.048853934 = product of:
      0.1465618 = sum of:
        0.09928363 = weight(_text_:theorien in 533) [ClassicSimilarity], result of:
          0.09928363 = score(doc=533,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=533)
        0.04727817 = weight(_text_:der in 533) [ClassicSimilarity], result of:
          0.04727817 = score(doc=533,freq=34.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5087885 = fieldWeight in 533, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=533)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie gelingt es, eine Agenda durchzusetzen, deren zerstörerische Folgen keinem unverstellten Blick entgehen können? Und wie ist es möglich, in der Migrations-, Klima- und Identitätspolitik die Evidenz des Augenscheinlichen dauerhaft außer Kraft zu setzen? Schlüssel zur Beantwortung dieser Fragen ist die Macht der Sprache, die zum Gängelband unseres Denkens, Wahrnehmens und Fühlens geworden ist. Michael Esders inspiziert das Schlachtfeld der Begriffe und Metaphern, das sich auf alle Lebensbereiche ausgeweitet hat. Der Literaturwissenschaftler dechiffriert die "Wahrheitssysteme" (Michael Kretschmer) der deutschen Politik, die sich über alle diskursiven Gepflogenheiten hinwegsetzen. Er entziffert die Narrative der Willkommenskultur und des menschengemachten Klimawandels, in denen Haltungen über den Common Sense, Mythen über Theorien triumphieren. Das mächtigste Sprachregime der Gegenwart hat die postmoderne Linke etabliert, die das in der Deutung von Texten erprobte Verfahren der Dekonstruktion auf die Politik überträgt. In der "Matrix der Differenz" stehen alle Formen der Identität und des kollektiven Selbst nicht nur unter Generalverdacht, sondern werden undenkbar. Nur wer das semantische Betriebssystem des Sprachregimes entschlüsselt, kann seine Macht brechen. Dazu möchte dieses Buch beitragen.
    Classification
    MS 7850: Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, Public Relations / Soziologie / Spezielle Soziologien
    RVK
    MS 7850: Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, Public Relations / Soziologie / Spezielle Soziologien
  14. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.05
    0.04689064 = product of:
      0.14067191 = sum of:
        0.112584494 = weight(_text_:einzelne in 755) [ClassicSimilarity], result of:
          0.112584494 = score(doc=755,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.4598239 = fieldWeight in 755, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
        0.028087419 = weight(_text_:der in 755) [ClassicSimilarity], result of:
          0.028087419 = score(doc=755,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30226544 = fieldWeight in 755, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=755)
      0.33333334 = coord(2/6)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    CI 6721: Sekundärliteratur / Philosophie / Geschichte der Philosophie
  15. Greifeneder, E.; Schlebbe, K.: Information Behaviour (2023) 0.05
    0.04687573 = product of:
      0.14062719 = sum of:
        0.09928363 = weight(_text_:theorien in 812) [ClassicSimilarity], result of:
          0.09928363 = score(doc=812,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.36310613 = fieldWeight in 812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0390625 = fieldNorm(doc=812)
        0.041343562 = weight(_text_:der in 812) [ClassicSimilarity], result of:
          0.041343562 = score(doc=812,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4449227 = fieldWeight in 812, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=812)
      0.33333334 = coord(2/6)
    
    Abstract
    Information Behaviour (IB) bezeichnet die verschiedenen Formen der Interaktionen von Menschen und Information. Der Begriff wird außerdem auch als Oberbegriff für das Forschungsfeld verwendet, das Informationsverhalten erhebt, analysiert und interpretiert. Als Drittes wird der Begriff für eine auf das Individuum fokussierte Forschungsperspektive innerhalb der Information-Behaviour-Forschung verwendet. Wie dieser Artikel zeigt, ist Information Behaviour ein verhältnismäßig junges Forschungsfeld, das in einer digitalisierten Welt eine wichtige Rolle einnimmt. Der Beitrag zeigt aber auch, dass viele Themen noch wenig oder nicht ausreichend beforscht und viele Begriffe nicht eindeutig definiert sind (Savolainen 2021). Daher liegt hier der Schwerpunkt auf einer Darstellung der Vielfalt der Begriffsdefinitionen, Theorien und Modelle der Informationsverhaltensforschung. Im deutschsprachigen Raum gibt es die heutige IB-Forschung als Forschungsfeld erst seit etwa 20 Jahren und damit erst 30 Jahre später als in den Information-Behaviour-Hochburgen wie den USA, Schweden, Dänemark, Finnland, Norwegen oder Kanada. Davor dominierte im deutschsprachigen Raum die Benutzer*innenforschung, welche sich insbesondere in Studien zur Zufriedenheit und zur Nutzung von Bibliotheken und Museen manifestierte. Dieser Artikel definiert zuerst den Begriff Information Behaviour und stellt ein generalisierendes Modell der Informationsverhaltensforschung vor. Im Anschluss werden Formen der Interaktion mit Information und zentrale Entwicklungen des Forschungsfeldes beschrieben. Der Beitrag endet mit einem Einblick in die Information Behaviour Community.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  16. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.03
    0.03418085 = product of:
      0.10254254 = sum of:
        0.07960926 = weight(_text_:einzelne in 133) [ClassicSimilarity], result of:
          0.07960926 = score(doc=133,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
        0.02293328 = weight(_text_:der in 133) [ClassicSimilarity], result of:
          0.02293328 = score(doc=133,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.2467987 = fieldWeight in 133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=133)
      0.33333334 = coord(2/6)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  17. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06368741 = score(doc=431,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.03307485 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.03307485 = score(doc=431,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  18. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.03
    0.031739008 = product of:
      0.09521702 = sum of:
        0.06894364 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.06894364 = score(doc=5908,freq=6.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.026273374 = weight(_text_:der in 5908) [ClassicSimilarity], result of:
          0.026273374 = score(doc=5908,freq=42.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.28274342 = fieldWeight in 5908, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
  19. Geschuhn, K.: Vertragsunterzeichnung Springer Nature und Projekt DEAL (2020) 0.03
    0.031370617 = product of:
      0.094111845 = sum of:
        0.06368741 = weight(_text_:einzelne in 5654) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5654,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5654, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
        0.030424435 = weight(_text_:der in 5654) [ClassicSimilarity], result of:
          0.030424435 = score(doc=5654,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32741547 = fieldWeight in 5654, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5654)
      0.33333334 = coord(2/6)
    
    Abstract
    Text der Mail: "Anknüpfend an das im August 2019 unterzeichnete Memorandum of Understanding (MOU) geben Springer Nature und MPDL Services GmbH im Namen von Projekt DEAL heute bekannt, dass der formale Vertrag der bislang weltweit umfangreichsten transformativen Open-Access-Vereinbarung unterzeichnet wurde. Seit dem 1. Januar 2020 werden Publikationen in Springer Nature-Subskriptionszeitschriften aus den mehr als 700 teilnahmeberechtigten deutschen wissenschaftlichen Einrichtungen Open Access publiziert. Teilnehmende Institutionen erhalten umfassenden Zugang zum Zeitschriftenportfolio von Springer Nature. Lesen Sie die Pressemitteilung hier: https://www.hrk.de/presse/pressemitteilungen/pressemitteilung/meldung/springer-nature-und-projekt-deal-unterzeichnen-weltweit-umfangreichsten-open-access-transformationsv/ Der vollständige Vertragstext wird zusammen mit dem Start des Teilnahmeverfahrens für deutsche Einrichtungen in der zweiten Januarhälfte veröffentlicht. MPDL Services GmbH wird in den kommenden Wochen weitere Informationen zur Verfügung stellen und sich mit den teilnahmeberechtigten Institutionen in Verbindung setzen. Informationen zu den Eckpunkten der Vereinbarung finden Sie hier: https://www.projekt-deal.de/springer-nature-vertrag/ Bitte beachten Sie, dass der Start der Open-Access-Gold-Komponente auf den 1.8.2020 verschoben wurde."
    Vgl. auch den Text in der Mail von A. Jobmann an Inetbib vom 14.01.2020: "nach mehrjährigen Verhandlungen kam es im Rahmen des Allianzprojektes DEAL am 15. Januar 2019 zu einem Vertragsabschluss mit dem Verlag Wiley und am 09.01.2020 zu einem ähnlichen Vertragsabschluss mit Springer Nature. Diese Verträge berechtigen die korrespondierenden Autorinnen und Autoren aller beteiligten Einrichtungen, ihre Publikationen in den Zeitschriften des Wiley-Verlages und Springer Nature unter einer freien Lizenz im Open Access zu publizieren. Das finanzielle Beteiligungsmodell für solche Transformationsverträge setzt derzeit noch bei den bisherigen Subskriptionszahlungen an die jeweiligen Verlage an. Mit der Open-Access-Transformation wird jedoch insbesondere die Umstellung des Standard-Geschäftsmodells für issenschaftliche Verlage von Subskription auf das Open-Access-Publizieren angestrebt. Damit verbunden sind Änderungen in den Geschäftsprozessen und der Abrechnungslogik, in deren Zentrum zukünftig die einzelne Publikation steht.
  20. Grundlagen der Informationswissenschaft (2023) 0.03
    0.028437575 = product of:
      0.085312724 = sum of:
        0.05957018 = weight(_text_:theorien in 1043) [ClassicSimilarity], result of:
          0.05957018 = score(doc=1043,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.21786368 = fieldWeight in 1043, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
        0.025742542 = weight(_text_:der in 1043) [ClassicSimilarity], result of:
          0.025742542 = score(doc=1043,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27703083 = fieldWeight in 1043, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1043)
      0.33333334 = coord(2/6)
    
    Abstract
    Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.
    Content
    Enthält die Kapitel: Grußwort Hochschulverband Informationswissenschaft / Vorwort der Herausgeber / Rainer Kuhlen & Wolfgang Semar: A 1 Information - ein Konstrukt mit Folgen - 3 / Marlies Ockenfeld: A 2 Institutionalisierung der Informationswissenschaft und der IuD-Infrastruktur in Deutschland - 27 / Hans-Christoph Hobohm: A 3 Theorien in der Informationswissenschaft - 45 / Julia Maria Struß & Dirk Lewandowski: A 4 Methoden in der Informationswissenschaft - 57 / Ursula Georgy, Frauke Schade & Stefan Schmunk A 5 Ausbildung, Studium und Weiterbildung in der Informationswissenschaft - 71 / Robert Strötgen & René Schneider: A 6 Bibliotheken - 83 / Karin Schwarz: A 7 Archive - 93 / Hartwig Lüdtke: A 8 Museen - 103 / Barbara Müller-Heiden: A 9 Mediatheken - 111 / Ragna Seidler-de Alwis: A 10 Information Professionals - 117 / Axel Ermert: A 11 Normen und Standardisierung im Informationsbereich - 123 / Thomas Bähr: A 12 Langzeitarchivierung - 135 / Ulrich Reimer: B 1 Einführung in die Wissensorganisation - 147 / Gerd Knorz: B 2 Intellektuelles Indexieren - 159 / Klaus Lepsky: B 3 Automatisches Indexieren - 171 / Andreas Oskar Kempf: B 4 Thesauri - 183 / Michael Kleineberg: B 5 Klassifikation - 195 / Heidrun Wiesenmüller: B 6 Formale Erschließung - 207 / Jochen Fassbender: B 7 Register/Indexe - 219 / Udo Hahn: B 8 Abstracting - Textzusammenfassung - 233 / Rolf Assfalg: B 9 Metadaten - 245 / Heiko Rölke & Albert Weichselbraun: B 10 Ontologien und Linked Open Data - 257 / Isabelle Dorsch & Stefanie Haustein: B 11 Bibliometrie - 271 / Udo Hahn: B 12 Automatische Sprachverarbeitung - 281 /
    Hans-Christian Jetter: B 13 Informationsvisualisierung und Visual Analytics - 295 / Melanie Siegel: B 14 Maschinelle Übersetzung - 307 / Ulrich Herb: B 15 Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung - 317 / Thomas Mandl: B 16 Text Mining und Data Mining - 327 / Heike Neuroth: B 17 Forschungsdaten - 339 / Isabella Peters: B 18 Folksonomies & Social Tagging - 351 / Christa Womser-Hacker: C 1 Informationswissenschaftliche Perspektiven des Information Retrieval - 365 / Norbert Fuhr: C 2 Modelle im Information Retrieval - 379 / Dirk Lewandowski: C 3 Suchmaschinen - 391 / David Elsweiler & Udo Kruschwitz: C 4 Interaktives Information Retrieval - 403 / Thomas Mandl & Sebastian Diem: C 5 Bild- und Video-Retrieval - 413 / Maximilian Eibl, Josef Haupt, Stefan Kahl, Stefan Taubert & Thomas Wilhelm-Stein: C 6 Audio- und Musik-Retrieval - 423 / Christa Womser-Hacker: C 7 Cross-Language Information Retrieval (CLIR) - 433 / Vivien Petras & Christa Womser-Hacker: C 8 Evaluation im Information Retrieval - 443 / Philipp Schaer: C 9 Sprachmodelle und neuronale Netze im Information Retrieval - 455 / Stefanie Elbeshausen: C 10 Modellierung von Benutzer*innen, Kontextualisierung, Personalisierung - 467 / Ragna Seidler-de Alwis: C 11 Informationsrecherche - 477 / Ulrich Reimer: C 12 Empfehlungssysteme - 485 / Elke Greifeneder & Kirsten Schlebbe: D 1 Information Behaviour - 499 / Nicola Döring: D 2 Computervermittelte Kommunikation - 511 / Hans-Christian Jetter: D 3 Mensch-Computer-Interaktion, Usability und User Experience - 525 / Gabriele Irle: D 4 Emotionen im Information Seeking - 535 /

Languages

  • d 427
  • e 96
  • m 2
  • More… Less…

Types

  • a 410
  • el 216
  • m 48
  • s 7
  • p 3
  • x 3
  • r 1
  • More… Less…

Subjects

Classifications