Search (1246 results, page 1 of 63)

  • × year_i:[2020 TO 2030}
  1. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.10467787 = product of:
      0.3140336 = sum of:
        0.028994884 = product of:
          0.08698465 = sum of:
            0.08698465 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.08698465 = score(doc=1000,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.08698465 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08698465 = score(doc=1000,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08698465 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08698465 = score(doc=1000,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08698465 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08698465 = score(doc=1000,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0031667221 = weight(_text_:in in 1000) [ClassicSimilarity], result of:
          0.0031667221 = score(doc=1000,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.10626988 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.020918036 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.020918036 = score(doc=1000,freq=24.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.33333334 = coord(6/18)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  2. Noever, D.; Ciolino, M.: ¬The Turing deception (2022) 0.10
    0.09794241 = product of:
      0.35259268 = sum of:
        0.034793857 = product of:
          0.10438157 = sum of:
            0.10438157 = weight(_text_:3a in 862) [ClassicSimilarity], result of:
              0.10438157 = score(doc=862,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.56201804 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
        0.10438157 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10438157 = score(doc=862,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10438157 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10438157 = score(doc=862,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.10438157 = weight(_text_:2f in 862) [ClassicSimilarity], result of:
          0.10438157 = score(doc=862,freq=2.0), product of:
            0.18572637 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021906832 = queryNorm
            0.56201804 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
        0.0046541123 = weight(_text_:in in 862) [ClassicSimilarity], result of:
          0.0046541123 = score(doc=862,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1561842 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=862)
      0.2777778 = coord(5/18)
    
    Abstract
    This research revisits the classic Turing test and compares recent large language models such as ChatGPT for their abilities to reproduce human-level comprehension and compelling text generation. Two task challenges- summary and question answering- prompt ChatGPT to produce original content (98-99%) from a single text entry and sequential questions initially posed by Turing in 1950. We score the original and generated content against the OpenAI GPT-2 Output Detector from 2019, and establish multiple cases where the generated content proves original and undetectable (98%). The question of a machine fooling a human judge recedes in this work relative to the question of "how would one prove it?" The original contribution of the work presents a metric and simple grammatical set for understanding the writing mechanics of chatbots in evaluating their readability and statistical clarity, engagement, delivery, overall quality, and plagiarism risks. While Turing's original prose scores at least 14% below the machine-generated output, whether an algorithm displays hints of Turing's true initial thoughts (the "Lovelace 2.0" test) remains unanswerable.
    Source
    https%3A%2F%2Farxiv.org%2Fabs%2F2212.06721&usg=AOvVaw3i_9pZm9y_dQWoHi6uv0EN
  3. Mandl, T.; Diem, S.: Bild- und Video-Retrieval (2023) 0.03
    0.032461863 = product of:
      0.19477117 = sum of:
        0.17759168 = weight(_text_:bildverarbeitung in 801) [ClassicSimilarity], result of:
          0.17759168 = score(doc=801,freq=4.0), product of:
            0.20371147 = queryWeight, product of:
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.021906832 = queryNorm
            0.8717805 = fieldWeight in 801, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.298992 = idf(docFreq=10, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.0026870528 = weight(_text_:in in 801) [ClassicSimilarity], result of:
          0.0026870528 = score(doc=801,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.09017298 = fieldWeight in 801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
        0.01449244 = weight(_text_:der in 801) [ClassicSimilarity], result of:
          0.01449244 = score(doc=801,freq=8.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.29615843 = fieldWeight in 801, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=801)
      0.16666667 = coord(3/18)
    
    Abstract
    Digitale Bildverarbeitung hat längst den Alltag erreicht: Automatisierte Passkontrollen, Gesichtserkennung auf dem Mobiltelefon und Apps zum Bestimmen von Pflanzen anhand von Fotos sind nur einige Beispiele für den Einsatz dieser Technologie. Digitale Bildverarbeitung zur Analyse der Inhalte von Bildern kann den Zugang zu Wissen verbessern und ist somit relevant für die Informationswissenschaft. Häufig greifen Systeme bei der Suche nach visueller Information nach wie vor auf beschreibende Metadaten zu, weil diese sprachbasierten Methoden für Massendaten meist robust funktionieren. Der Fokus liegt in diesem Beitrag auf automatischer Inhaltsanalyse von Bildern (content based image retrieval) und nicht auf reinen Metadaten-Systemen, welche Wörter für die Beschreibung von Bildern nutzen (s. Kapitel B 9 Metadaten) und somit letztlich Text-Retrieval ausführen (concept based image retrieval) (s. Kapitel C 1 Informationswissenschaftliche Perspektiven des Information Retrieval).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.03
    0.025608474 = product of:
      0.11523814 = sum of:
        0.053617526 = weight(_text_:technik in 752) [ClassicSimilarity], result of:
          0.053617526 = score(doc=752,freq=10.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.4918001 = fieldWeight in 752, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.037542466 = product of:
          0.07508493 = sum of:
            0.07508493 = weight(_text_:mustererkennung in 752) [ClassicSimilarity], result of:
              0.07508493 = score(doc=752,freq=2.0), product of:
                0.19292286 = queryWeight, product of:
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.021906832 = queryNorm
                0.38919666 = fieldWeight in 752, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.806516 = idf(docFreq=17, maxDocs=44218)
                  0.03125 = fieldNorm(doc=752)
          0.5 = coord(1/2)
        0.003582737 = weight(_text_:in in 752) [ClassicSimilarity], result of:
          0.003582737 = score(doc=752,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.120230645 = fieldWeight in 752, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
        0.020495405 = weight(_text_:der in 752) [ClassicSimilarity], result of:
          0.020495405 = score(doc=752,freq=36.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4188313 = fieldWeight in 752, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=752)
      0.22222222 = coord(4/18)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    BK 8100: Naturwissenschaft, Technik
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    Footnote
    Rez. in Spektrum der Wissenschaft. 2022, H.11, S.86 (M. Springer).
    RVK
    BK 8100: Naturwissenschaft, Technik
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  5. Scheven, E.: Qualitätssicherung in der GND (2021) 0.02
    0.017758712 = product of:
      0.079914205 = sum of:
        0.048828542 = product of:
          0.097657084 = sum of:
            0.097657084 = weight(_text_:elektrotechnik in 314) [ClassicSimilarity], result of:
              0.097657084 = score(doc=314,freq=2.0), product of:
                0.17964433 = queryWeight, product of:
                  8.200379 = idf(docFreq=32, maxDocs=44218)
                  0.021906832 = queryNorm
                0.5436135 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.200379 = idf(docFreq=32, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.5 = coord(1/2)
        0.0046541123 = weight(_text_:in in 314) [ClassicSimilarity], result of:
          0.0046541123 = score(doc=314,freq=6.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.1561842 = fieldWeight in 314, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=314)
        0.020495405 = weight(_text_:der in 314) [ClassicSimilarity], result of:
          0.020495405 = score(doc=314,freq=16.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4188313 = fieldWeight in 314, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=314)
        0.0059361467 = product of:
          0.01780844 = sum of:
            0.01780844 = weight(_text_:22 in 314) [ClassicSimilarity], result of:
              0.01780844 = score(doc=314,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23214069 = fieldWeight in 314, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=314)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Abstract
    Was mag das Akronym GND bedeuten? Lassen wir der Fantasie freien Lauf, kommen wir auf Auflösungen wie Golfer nehmen Datteln, Gerne noch Details, Glück nach Dauerstress, Größter Nutzen Deutschlands und vieles mehr. Eine ernsthaftere Recherche führt zur Gesamtnutzungsdauer oder auf einen Sachverhalt der Elektrotechnik: Die von einer Stromquelle bereitgestellte Spannung bezieht sich stets auf ein Grundniveau. Dieses Grundniveau wird auf Deutsch als Masse, im Englischen aber als ground oder GND bezeichnet. Techniker kennen das Schaltzeichen dafür: Für den informationswissenschaftlichen Bereich steht dagegen GND für die Gemeinsame Normdatei. Auch sie hat (seit 2020) ein Zeichen. Da die Gemeinsame Normdatei (im weiteren Text nur noch GND) auch ein Instrument der Inhaltserschließung ist, beeinflussen ihre Stärken und Schwächen die Qualität der Inhaltserschließung. Deshalb widmet sich dieser Artikel der Qualitätssicherung in der GND.
    Date
    23. 9.2021 19:12:22
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  6. Lotter, W.: Zusammenhänge : wie wir lernen, die Welt wieder zu verstehen (2020) 0.02
    0.015117056 = product of:
      0.06802675 = sum of:
        0.041962348 = weight(_text_:technik in 41) [ClassicSimilarity], result of:
          0.041962348 = score(doc=41,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.38489443 = fieldWeight in 41, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=41)
        0.004433411 = weight(_text_:in in 41) [ClassicSimilarity], result of:
          0.004433411 = score(doc=41,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.14877784 = fieldWeight in 41, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=41)
        0.014642626 = weight(_text_:der in 41) [ClassicSimilarity], result of:
          0.014642626 = score(doc=41,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.29922754 = fieldWeight in 41, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=41)
        0.006988369 = product of:
          0.020965107 = sum of:
            0.020965107 = weight(_text_:29 in 41) [ClassicSimilarity], result of:
              0.020965107 = score(doc=41,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.27205724 = fieldWeight in 41, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=41)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Abstract
    In einer immer komplexer werdenden Welt reden wir zwar viel über die Wissensgesellschaft, aber was mit den Netzwerken der Technik, der Ökonomie, der Kultur oder einer zeitgemäßen Bildung wirklich gemeint ist, durchschaut keiner so richtig. Es fehlt uns nicht nur an Durchblick, wir trauen ihn uns auch kaum noch zu. Wolf Lotter ermutigt zu einem neuen Selbstbewusstsein und konsequentem Umdenken. Wir müssen uns vom blinden Glauben an Positionen verabschieden und stattdessen in eigenes Wissen investieren. Wir müssen lernen, Komplexität zu erschließen und Zusammenhänge herzustellen. Was so entsteht, sind keine intellektuellen Konstruktionen, sondern Bausteine sozialer Gemeinschaft.291 S
    Date
    19.11.2020 14:29:55
  7. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.01
    0.011952197 = product of:
      0.05378489 = sum of:
        0.028994884 = product of:
          0.08698465 = sum of:
            0.08698465 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.08698465 = score(doc=5669,freq=2.0), product of:
                0.18572637 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.0050070276 = weight(_text_:in in 5669) [ClassicSimilarity], result of:
          0.0050070276 = score(doc=5669,freq=10.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.16802745 = fieldWeight in 5669, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.014791285 = weight(_text_:der in 5669) [ClassicSimilarity], result of:
          0.014791285 = score(doc=5669,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.30226544 = fieldWeight in 5669, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.0049916925 = product of:
          0.0149750775 = sum of:
            0.0149750775 = weight(_text_:29 in 5669) [ClassicSimilarity], result of:
              0.0149750775 = score(doc=5669,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.19432661 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  8. Sack, H.: Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung (2021) 0.01
    0.011780122 = product of:
      0.07068073 = sum of:
        0.035967726 = weight(_text_:technik in 372) [ClassicSimilarity], result of:
          0.035967726 = score(doc=372,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.3299095 = fieldWeight in 372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.007600134 = weight(_text_:in in 372) [ClassicSimilarity], result of:
          0.007600134 = score(doc=372,freq=16.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.25504774 = fieldWeight in 372, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
        0.027112871 = weight(_text_:der in 372) [ClassicSimilarity], result of:
          0.027112871 = score(doc=372,freq=28.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.55406165 = fieldWeight in 372, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=372)
      0.16666667 = coord(3/18)
    
    Abstract
    Effizienter (Online-)Zugang zu Bibliotheks- und Archivmaterialien erfordert eine qualitativ hinreichende inhaltliche Erschließung dieser Dokumente. Die passgenaue Verschlagwortung und Kategorisierung dieser unstrukturierten Dokumente ermöglichen einen strukturell gegliederten Zugang sowohl in der analogen als auch in der digitalen Welt. Darüber hinaus erweitert eine vollständige Transkription der Dokumente den Zugang über die Möglichkeiten der Volltextsuche. Angesichts der in jüngster Zeit erzielten spektakulären Erfolge der Künstlichen Intelligenz liegt die Schlussfolgerung nahe, dass auch das Problem der automatisierten Inhaltserschließung für Bibliotheken und Archive als mehr oder weniger gelöst anzusehen wäre. Allerdings lassen sich die oftmals nur in thematisch engen Teilbereichen erzielten Erfolge nicht immer problemlos verallgemeinern oder in einen neuen Kontext übertragen. Das Ziel der vorliegenden Darstellung liegt in der Diskussion des aktuellen Stands der Technik der automatisierten inhaltlichen Erschließung anhand ausgewählter Beispiele sowie möglicher Fortschritte und Prognosen basierend auf aktuellen Entwicklungen des maschinellen Lernens und der Künstlichen Intelligenz einschließlich deren Kritik.
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  9. Diedrichs, R.; Goebel, R.: K10plus - Technik und Entwicklung (2020) 0.01
    0.011743865 = product of:
      0.105694786 = sum of:
        0.08477675 = weight(_text_:technik in 5860) [ClassicSimilarity], result of:
          0.08477675 = score(doc=5860,freq=4.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.7776042 = fieldWeight in 5860, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=5860)
        0.020918036 = weight(_text_:der in 5860) [ClassicSimilarity], result of:
          0.020918036 = score(doc=5860,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.42746788 = fieldWeight in 5860, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5860)
      0.11111111 = coord(2/18)
    
    Abstract
    Anregungen der Forschung aufgreifend wurde mit K10plus eine Plattform für Metadaten entwickelt, die mehr ist als nur eine Verbunddatenbank. Über die Hälfte der staatlichen Universitäten Deutschlands nutzen K10plus. Der Artikel beleuchtet die Entstehung und die Funktionsweise von K10plus unter technischen Aspekten.
    Source
    ABI-Technik. 40(2020) H.2, S.148-157
  10. Wiesenmüller, H.: Formale Erschließung (2023) 0.01
    0.010895805 = product of:
      0.06537483 = sum of:
        0.035967726 = weight(_text_:technik in 784) [ClassicSimilarity], result of:
          0.035967726 = score(doc=784,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.3299095 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.0053741056 = weight(_text_:in in 784) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=784,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 784, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
        0.024032993 = weight(_text_:der in 784) [ClassicSimilarity], result of:
          0.024032993 = score(doc=784,freq=22.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.4911232 = fieldWeight in 784, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=784)
      0.16666667 = coord(3/18)
    
    Abstract
    Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  11. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.01
    0.009440067 = product of:
      0.0424803 = sum of:
        0.017983863 = weight(_text_:technik in 405) [ClassicSimilarity], result of:
          0.017983863 = score(doc=405,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.16495475 = fieldWeight in 405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.0061568115 = weight(_text_:in in 405) [ClassicSimilarity], result of:
          0.0061568115 = score(doc=405,freq=42.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.20661226 = fieldWeight in 405, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.015371554 = weight(_text_:der in 405) [ClassicSimilarity], result of:
          0.015371554 = score(doc=405,freq=36.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.31412345 = fieldWeight in 405, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.0029680734 = product of:
          0.00890422 = sum of:
            0.00890422 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
              0.00890422 = score(doc=405,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.116070345 = fieldWeight in 405, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=405)
          0.33333334 = coord(1/3)
      0.22222222 = coord(4/18)
    
    Abstract
    Human brain size nearly quadrupled in the six million years since Homo last shared a common ancestor with chimpanzees, but human brains are thought to have decreased in volume since the end of the last Ice Age. The timing and reason for this decrease is enigmatic. Here we use change-point analysis to estimate the timing of changes in the rate of hominin brain evolution. We find that hominin brains experienced positive rate changes at 2.1 and 1.5 million years ago, coincident with the early evolution of Homo and technological innovations evident in the archeological record. But we also find that human brain size reduction was surprisingly recent, occurring in the last 3,000 years. Our dating does not support hypotheses concerning brain size reduction as a by-product of body size reduction, a result of a shift to an agricultural diet, or a consequence of self-domestication. We suggest our analysis supports the hypothesis that the recent decrease in brain size may instead result from the externalization of knowledge and advantages of group-level decision-making due in part to the advent of social systems of distributed cognition and the storage and sharing of information. Humans live in social groups in which multiple brains contribute to the emergence of collective intelligence. Although difficult to study in the deep history of Homo, the impacts of group size, social organization, collective intelligence and other potential selective forces on brain evolution can be elucidated using ants as models. The remarkable ecological diversity of ants and their species richness encompasses forms convergent in aspects of human sociality, including large group size, agrarian life histories, division of labor, and collective cognition. Ants provide a wide range of social systems to generate and test hypotheses concerning brain size enlargement or reduction and aid in interpreting patterns of brain evolution identified in humans. Although humans and ants represent very different routes in social and cognitive evolution, the insights ants offer can broadly inform us of the selective forces that influence brain size.
    Footnote
    Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
    Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  12. Böck, H.: ¬Eine App, die nicht zuverlässig funktioniert : Corona-Tracing (2020) 0.01
    0.00898211 = product of:
      0.053892657 = sum of:
        0.035967726 = weight(_text_:technik in 5834) [ClassicSimilarity], result of:
          0.035967726 = score(doc=5834,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.3299095 = fieldWeight in 5834, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=5834)
        0.0053741056 = weight(_text_:in in 5834) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=5834,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 5834, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5834)
        0.012550822 = weight(_text_:der in 5834) [ClassicSimilarity], result of:
          0.012550822 = score(doc=5834,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.25648075 = fieldWeight in 5834, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5834)
      0.16666667 = coord(3/18)
    
    Abstract
    Deutschland hat bei der zentralisierten Corona-App dabei womöglich auf den falschen Ansatz gesetzt. Ohne Unterstützung von Google und Apple wird sie nur schlecht funktionieren - und genau daran fehlt es. Zentral oder dezentral - das ist gerade die entscheidende technische Frage, die in Sachen Corona-Tracing-App diskutiert wird. Deutschland und Frankreich setzen auf den zentralisierten Ansatz, doch das könnte nicht nur aus Datenschutzsicht die falsche Wahl sein. Bislang wenig beachtet wurde die Frage, wie stabil und zuverlässig eine solche App überhaupt funktionieren würde. Es spricht einiges dafür, dass ein dezentraler Ansatz, wie er zur Zeit in der Schweiz und Österreich verfolgt wird, besser funktionieren wird. Google und Apple wollen die App-Entwicklung unterstützen - aber nur dezentral. Die Idee bei den geplanten Apps ist in beiden Szenarien, dass Smartphones über eine Technik namens Bluetooth Low Energy miteinander kommunizieren. Damit eine solche App funktioniert, müsste sie permanent mit anderen Geräten in der Umgebung kommunizieren. Doch dabei gibt es eine Reihe von technischen Problemen.
  13. Barth, T.: Digitalisierung und Lobby : Transhumanismus I (2020) 0.01
    0.008925195 = product of:
      0.053551167 = sum of:
        0.041962348 = weight(_text_:technik in 5665) [ClassicSimilarity], result of:
          0.041962348 = score(doc=5665,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.38489443 = fieldWeight in 5665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5665)
        0.0031348949 = weight(_text_:in in 5665) [ClassicSimilarity], result of:
          0.0031348949 = score(doc=5665,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.10520181 = fieldWeight in 5665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5665)
        0.008453923 = weight(_text_:der in 5665) [ClassicSimilarity], result of:
          0.008453923 = score(doc=5665,freq=2.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.17275909 = fieldWeight in 5665, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5665)
      0.16666667 = coord(3/18)
    
    Abstract
    Transhumanisten bringen bunte Tupfer in die aktuelle Digitalisierungsdebatte, aber auch gefährliche Blütenträume, Lobbyismus und Angst - vor den Chinesen. Wir werfen einen Blick auf die Transhumanistische Partei Deutschlands, den transhumanen Philosophen Sorgner, die mit aktueller Magnet-Hirnstimulation noch unzufriedene Medienforscherin Miriam Meckel, aber auch auf Kritiker einer allzu euphorischen Digitalisierung. Es wird sich zeigen, dass der Transhumanismus differenziert gesehen werden muss - und dass man am Ende bei aller Technik-Euphorie doch nicht um eine Kritik des Internet-Panoptikums herumkommt.
  14. Schmitt, P.: Postdigital : Medienkritik im 21. Jahrhundert (2021) 0.01
    0.008924499 = product of:
      0.053546995 = sum of:
        0.029973106 = weight(_text_:technik in 146) [ClassicSimilarity], result of:
          0.029973106 = score(doc=146,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.2749246 = fieldWeight in 146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.0044784215 = weight(_text_:in in 146) [ClassicSimilarity], result of:
          0.0044784215 = score(doc=146,freq=8.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.15028831 = fieldWeight in 146, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
        0.019095466 = weight(_text_:der in 146) [ClassicSimilarity], result of:
          0.019095466 = score(doc=146,freq=20.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.390223 = fieldWeight in 146, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=146)
      0.16666667 = coord(3/18)
    
    Abstract
    Die völlige Computerisierung der Lebenswelt entwickelt eine geradezu mahlstromartige Dynamik. Massenhaft sind die Köpfe über die Bildschirme gesenkt und starren auf vereinheitlichten Geräten auf die überall gleichen Apps. Von informationeller Autonomie kann keine Rede sein, dafür umso mehr von der »Fear of missing out«. Peter Schmitt analysiert in seinem fulminanten Essay diese neue Normalität. Die Gewalt dieses Umbruchs, der seit wenig mehr als zehn Jahren stattfindet, ist philosophisch noch kaum begriffen. Die Digitalisierung zerrt uns mit wachsender Dynamik in eine Existenzweise hinein, für oder gegen die wir uns nicht entscheiden können. Sprache unterliegt dem Siegeszug der binären Codierung, Musik, verfügbar wie Wasser und Gas, verliert real an Kontur und Substanz. Individualität als grundlegendes Selbstverhältnis des Menschen diffundiert im Netz und Freiheit ist in der digital verwalteten Welt bedrohter denn je. Was bedeutet es, wenn der Mensch zum permanent überwachten Programmanwender wird? Schmitt geht es weder um eine Verteufelung der uns umgebenden Technik noch um eine ängstliche Schutzhaltung. Sein Buch zielt auf ein angemessenes Verständnis des Digitalen und ein damit zusammenhängendes neues, »post­digitales« Selbstverständnis der Anwender. Der Autor plädiert für eine zeitgemäße Medienkritik, die den Blick für die Unwahrscheinlichkeit der Situation schärft, in die unsere Gesellschaft sich hineinmanövriert hat.
  15. Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020) 0.01
    0.00871977 = product of:
      0.052318618 = sum of:
        0.035967726 = weight(_text_:technik in 551) [ClassicSimilarity], result of:
          0.035967726 = score(doc=551,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.3299095 = fieldWeight in 551, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.003800067 = weight(_text_:in in 551) [ClassicSimilarity], result of:
          0.003800067 = score(doc=551,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.12752387 = fieldWeight in 551, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
        0.012550822 = weight(_text_:der in 551) [ClassicSimilarity], result of:
          0.012550822 = score(doc=551,freq=6.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.25648075 = fieldWeight in 551, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=551)
      0.16666667 = coord(3/18)
    
    Abstract
    Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
  16. Lewandowski, D.: Suchmaschinen verstehen : 3. vollständig überarbeitete und erweiterte Aufl. (2021) 0.01
    0.008676606 = product of:
      0.052059636 = sum of:
        0.029973106 = weight(_text_:technik in 4016) [ClassicSimilarity], result of:
          0.029973106 = score(doc=4016,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.2749246 = fieldWeight in 4016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
        0.0050070276 = weight(_text_:in in 4016) [ClassicSimilarity], result of:
          0.0050070276 = score(doc=4016,freq=10.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.16802745 = fieldWeight in 4016, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
        0.017079504 = weight(_text_:der in 4016) [ClassicSimilarity], result of:
          0.017079504 = score(doc=4016,freq=16.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.34902605 = fieldWeight in 4016, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4016)
      0.16666667 = coord(3/18)
    
    Abstract
    Suchmaschinen dienen heute selbstverständlich als Werkzeuge, um Informationen zu recherchieren. Doch wie funktionieren diese genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Rankingverfahren und Nutzerverhalten werden dargestellt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare sowie Online-Marketing-Verantwortliche. Für die dritte Auflage wurde der Text vollständig überarbeitet sowie alle Statistiken und Quellen auf den neuesten Stand gebracht.
    Content
    Vgl. die Anzeige in Open Password Nr.959 vom 11.08.2021: Einer der wenigen "Bestseller" der Informationsbranche, der nunmehr in die dritte Auflage geht. Das Buch wurde in Details überarbeitet sowie aktualisiert. Dazu wurden die Literaturangaben "vielfach erheblich" ergänzt. Dazu der Verfasser Dirk Lewandowski in seinem Vorwort: "Ich habe aber darauf geachtet, dass dieses Buch nicht das Schicksal vieler einführender Werke widerfährt, nämlich, dass es immer weiter anwächst, letztlich aber keine gut lesbare Einführung mehr darstellt." Veränderungen ergaben sich zum Teil, weil "ich durch die vielen Rückmeldungen auch zahlreiche Hinweise bekommen (habe), welche Teile noch verständlicher gemacht werden sollten, wo ergänzt, und wo gestrichen werden sollte."
  17. Levy, S.: Facebook : Weltmacht am Abgrund - Der unzensierte Blick auf den Tech-Giganten (2020) 0.01
    0.007922516 = product of:
      0.047535095 = sum of:
        0.0339107 = weight(_text_:technik in 5824) [ClassicSimilarity], result of:
          0.0339107 = score(doc=5824,freq=4.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.31104168 = fieldWeight in 5824, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=5824)
        0.0017913685 = weight(_text_:in in 5824) [ClassicSimilarity], result of:
          0.0017913685 = score(doc=5824,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.060115322 = fieldWeight in 5824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5824)
        0.011833028 = weight(_text_:der in 5824) [ClassicSimilarity], result of:
          0.011833028 = score(doc=5824,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.24181235 = fieldWeight in 5824, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5824)
      0.16666667 = coord(3/18)
    
    Abstract
    Amerikas führender Technik-Journalist Steven Levy über das Unternehmen, das unsere Gesellschaft für immer verändert hat: Facebook Über zehn Jahre Gespräche mit Mark Zuckerberg: Niemand hat direkteren Zugang zu dem umstrittenen Tech-Genie als Steven Levy. Inside Facebook: Wie hinter verschlossenen Türen über das Schicksal von Milliarden Usern entschieden wird. Was auf uns zukommt: Mark Zuckerbergs Pläne für die Zukunft seines Unternehmens und die unserer Gesellschaft. Vom Start-up zur Weltmacht: Die dramatische Firmengeschichte von Facebook zeigt, wie aus dem Konzern das international einflussreiche Tech-Imperium werden konnte, von dem es heute heißt, es bedrohe die Demokratie. Das sich gegen immer lautere Stimmen behaupten muss, die fordern, der Konzern habe zu viel Einfluss und gehöre zerschlagen. Das mit über 1,7 Milliarden täglichen Zugriffen von weltweiten Nutzern über enorme Daten-Vorräte und eine Macht verfügt, die ihresgleichen sucht. Eine Macht, für die der Konzern heute immer deutlicher zur Rechenschaft gezogen wird. Facebook, WhatsApp, Instagram: Wie das Unternehmen sich von einer Social-Media-Plattform zu einem der einflussreichsten Unternehmen unserer Zeit wandeln konnte. Mit welchen skrupellosen Strategien es Mark Zuckerberg gelang, seine Mitbewerber im Kampf um die Vormachtstellung im Silicon Valley auszubooten. Was bei dem Skandal um Cambridge Analytica hinter den Kulissen geschah und wie Mark Zuckerberg und Sheryl Sandberg um die Zukunft von Facebook ringen.
    Content
    Steven Levy, Amerikas renommiertester Technik-Journalist (The Washington Post), schreibt einen mitreißenden Bericht aus dem Inneren des Unternehmens, der veranschaulicht, warum Facebook die Welt unumkehrbar verändert hat und dafür heute die Konsequenzen trägt.
    Footnote
    Originaltitel: Facebook: The Inside Story. Rez. in: Spektrum der Wissenschaft. 2020, H.5, S.888-89 (Adrain Lobe)
  18. Hobohm, H.-C.: Zensur in der Digitalität - eine Überwindung der Moderne? : Die Rolle der Bibliotheken (2020) 0.01
    0.007723175 = product of:
      0.04633905 = sum of:
        0.0053741056 = weight(_text_:in in 5371) [ClassicSimilarity], result of:
          0.0053741056 = score(doc=5371,freq=2.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.18034597 = fieldWeight in 5371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.02898488 = weight(_text_:der in 5371) [ClassicSimilarity], result of:
          0.02898488 = score(doc=5371,freq=8.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.59231687 = fieldWeight in 5371, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=5371)
        0.011980062 = product of:
          0.035940185 = sum of:
            0.035940185 = weight(_text_:29 in 5371) [ClassicSimilarity], result of:
              0.035940185 = score(doc=5371,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.46638384 = fieldWeight in 5371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5371)
          0.33333334 = coord(1/3)
      0.16666667 = coord(3/18)
    
    Content
    Beitrag zur Tagung: "Nationalsozialismus Digital. Die Verantwortung von Bibliotheken, Archiven und Museen sowie Forschungseinrichtungen und Medien im Umgang mit der NSZeit im Netz." Österreichische Nationalbibliothek, Universität Wien, 27. - 29. November 2019
  19. Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021) 0.01
    0.0075669936 = product of:
      0.04540196 = sum of:
        0.003800067 = weight(_text_:in in 299) [ClassicSimilarity], result of:
          0.003800067 = score(doc=299,freq=4.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.12752387 = fieldWeight in 299, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.017749542 = weight(_text_:der in 299) [ClassicSimilarity], result of:
          0.017749542 = score(doc=299,freq=12.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.36271852 = fieldWeight in 299, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=299)
        0.023852354 = product of:
          0.03577853 = sum of:
            0.017970093 = weight(_text_:29 in 299) [ClassicSimilarity], result of:
              0.017970093 = score(doc=299,freq=2.0), product of:
                0.077061385 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23319192 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
            0.01780844 = weight(_text_:22 in 299) [ClassicSimilarity], result of:
              0.01780844 = score(doc=299,freq=2.0), product of:
                0.076713994 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021906832 = queryNorm
                0.23214069 = fieldWeight in 299, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=299)
          0.6666667 = coord(2/3)
      0.16666667 = coord(3/18)
    
    Abstract
    Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
    Date
    30. 6.2021 16:29:52
    Source
    o-bib: Das offene Bibliotheksjournal. 8(2021) Nr.2, S.1-22
  20. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.01
    0.0075669754 = product of:
      0.045401853 = sum of:
        0.023978485 = weight(_text_:technik in 431) [ClassicSimilarity], result of:
          0.023978485 = score(doc=431,freq=2.0), product of:
            0.109023005 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.021906832 = queryNorm
            0.21993968 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.004005622 = weight(_text_:in in 431) [ClassicSimilarity], result of:
          0.004005622 = score(doc=431,freq=10.0), product of:
            0.029798867 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021906832 = queryNorm
            0.13442196 = fieldWeight in 431, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.017417746 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.017417746 = score(doc=431,freq=26.0), product of:
            0.048934754 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021906832 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.16666667 = coord(3/18)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."

Languages

  • e 797
  • d 439
  • pt 4
  • m 2
  • sp 1
  • More… Less…

Types

  • a 1096
  • el 275
  • m 64
  • p 14
  • s 10
  • x 4
  • A 1
  • EL 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications