Search (881 results, page 1 of 45)

  • × language_ss:"d"
  • × type_ss:"el"
  1. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.17
    0.16791482 = product of:
      0.33582965 = sum of:
        0.11145297 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.11145297 = score(doc=1047,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.19657157 = weight(_text_:theorien in 1047) [ClassicSimilarity], result of:
          0.19657157 = score(doc=1047,freq=4.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.7189135 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.027805127 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.027805127 = score(doc=1047,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.5 = coord(3/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.13
    0.129133 = product of:
      0.258266 = sum of:
        0.055058867 = product of:
          0.1651766 = sum of:
            0.1651766 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.1651766 = score(doc=4388,freq=2.0), product of:
                0.35267892 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04159925 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.1651766 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1651766 = score(doc=4388,freq=2.0), product of:
            0.35267892 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04159925 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.038030542 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.038030542 = score(doc=4388,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Hammwöhner, R.: Qualitätsaspekte der Wikipedia (2007) 0.07
    0.06913148 = product of:
      0.20739442 = sum of:
        0.15885381 = weight(_text_:theorien in 2326) [ClassicSimilarity], result of:
          0.15885381 = score(doc=2326,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 2326, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=2326)
        0.048540607 = weight(_text_:der in 2326) [ClassicSimilarity], result of:
          0.048540607 = score(doc=2326,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5223744 = fieldWeight in 2326, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2326)
      0.33333334 = coord(2/6)
    
    Abstract
    Eine kritische Diskussion über ihre Verlässlichkeit begleitet die Entwicklung der Wikipedia von Beginn an. Mittlerweile liegen einige Publikationen vor, die sich mit der Qualität dieser neuen Enzyklopädie befassen. In diesem Betrag wird ein kurzer Überblick über mehrere dieser Arbeiten gegeben. Anschließend werden zwei eigene Studien vorgestellt, die sich mit Qualitätsaspekten befassen, die bisher weniger berücksichtigt wurden. In der ersten Studie wird die Abdeckung eines gut umgrenzten Themenkomplexes - Shakespeare's Werk - in mehreren Wikipedias untersucht. Die zweite Studie befasst sich mit der Qualität der Wissensorganisation in der Wikipedia.
    Source
    Wikis: Diskurse, Theorien und Anwendungen. Sonderausgabe von kommunikation@gesellschaft, Jg. 8. Online-Publikation. Hrsg.: C. Stegbauer u.a. [http://www.soz.uni-frankfurt.de/K.G/B3_2007_Hammwoehner.pdf]
  4. Schleim, S.: Vielleicht doch keine neuen Nervenzellen im Gehirn - na und?! (2018) 0.06
    0.061599955 = product of:
      0.18479986 = sum of:
        0.15885381 = weight(_text_:theorien in 4262) [ClassicSimilarity], result of:
          0.15885381 = score(doc=4262,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 4262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=4262)
        0.025946045 = weight(_text_:der in 4262) [ClassicSimilarity], result of:
          0.025946045 = score(doc=4262,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 4262, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4262)
      0.33333334 = coord(2/6)
    
    Abstract
    Denken wir an Karl Popper (1902-1994), einen der berühmtesten Wissenschaftstheoretiker des 20. Jahrhunderts. Ihm haben wir nicht nur die Idee zu verdanken, dass wissenschaftliche Hypothesen und Theorien falsifizierbar sein müssen - also so formuliert sein müssen, dass sie zumindest prinzipiell an Beobachtungen und Messungen scheitern können. Auch Poppers Hinweise auf die Fehlbarkeit (Fachsprache: Fallibilität) wissenschaftlichen Wissens waren ein bedeutender Beitrag zu unserer Ideengeschichte.
    Content
    Vgl. auch: https://www.heise.de/tp/features/Braucht-der-menschliche-Hippokampus-neue-Nervenzellen-4038079.html?view=print.
  5. Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005) 0.05
    0.054689355 = product of:
      0.16406806 = sum of:
        0.12737481 = weight(_text_:einzelne in 3574) [ClassicSimilarity], result of:
          0.12737481 = score(doc=3574,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.52023137 = fieldWeight in 3574, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
        0.03669325 = weight(_text_:der in 3574) [ClassicSimilarity], result of:
          0.03669325 = score(doc=3574,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 3574, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3574)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
  6. Neue Sachgruppen bei der SSD 0.05
    0.05407265 = product of:
      0.16221794 = sum of:
        0.11145297 = weight(_text_:einzelne in 3580) [ClassicSimilarity], result of:
          0.11145297 = score(doc=3580,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 3580, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3580)
        0.05076498 = weight(_text_:der in 3580) [ClassicSimilarity], result of:
          0.05076498 = score(doc=3580,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5463122 = fieldWeight in 3580, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3580)
      0.33333334 = coord(2/6)
    
    Abstract
    Folgende neue beziehungsweise umformulierte Sachgruppen wurden bei der Systematisierung nach SSD geschaffen und finden sich auch ab Januar 2017 in den ekz-Datendiensten. NDK 5 Mediendidaktik - E-Learning in der Schule NEA 5 Fächerübergreifender Unterricht in der Grundschule NEM 5 Deutschunterricht in der Grundschule NEM 502 Einzelne Unterrichtseinheiten ... NEN 21 Englischunterricht in der Grundschule NES 5 Mathematikunterricht in der Grundschule NEU 25 Kunstunterricht in der Grundschule NEV 5 Sportunterricht in der Grundschule NEW Technikunterricht - Werkunterricht - Informatikunterricht NEW 1 Technikunterricht - Werkunterricht NEW 3 Informatikunterricht NEX Textilgestaltung - Hauswirtschaftsunterricht NEZ Sonstige Unterrichtsfächer. Hier: Verkehrserziehung im Unterricht
    Source
    http://www.ekz.de/unternehmen/aktuelles/news/news-artikel/neue-sachgruppen-bei-der-ssd/?tx_news_pi1[day]=13&tx_news_pi1[month]=12&tx_news_pi1[year]=2016&cHash=ad427d1bb0232caf65881f9f2978a948
  7. Metzler Lexikon Sprache (2004) 0.05
    0.051112454 = product of:
      0.15333736 = sum of:
        0.048159894 = weight(_text_:der in 2818) [ClassicSimilarity], result of:
          0.048159894 = score(doc=2818,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5182773 = fieldWeight in 2818, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2818)
        0.10517747 = product of:
          0.21035494 = sum of:
            0.21035494 = weight(_text_:grammatik in 2818) [ClassicSimilarity], result of:
              0.21035494 = score(doc=2818,freq=2.0), product of:
                0.33637026 = queryWeight, product of:
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.04159925 = queryNorm
                0.6253672 = fieldWeight in 2818, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.085969 = idf(docFreq=36, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2818)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das als Gemeinschaftswerk von fast 80 Fachwissenschaftlern erarbeitete »Metzler Lexikon Sprache« informiert in etwa 6.000 Einträgen über das Gesamtgebiet der Linguistik und gibt einen Überblick über die Sprachfamilien, Sprachgruppen und Einzelsprachen der Welt. Den Schwerpunkt bilden Begriffe aus der verschiedenen Disziplinen der Sprachwissenschaft wie Phonetik, Phonologie, Lexikologie, Morphologie Syntax, Semantik, Rhetorik, Stilistik und Pragmatik. Das Lexikon erfasst zudem die relevante Terminologie der historischen Sprachwissenschaft, der traditionellen und der heute maßgeblichen Richtungen de Linguistik, z.B. der generativen Grammatik oder der Valenzgrammatik. In großem Umfang sind auchBegriffe aus interdisziplinären Arbeitsfeldern wie Spracherwerbsforschung, Sprachdidaktik, Spracherziehung, Dialektforschung, Soziolinguistik, Sprachphilosophie, Textlinguistik und Computerlinguist aufgenommen.
  8. Herb, U.: Kostenpflichtiger Open Access : auch Open Access kann zu mehr Konzentration und höheren Kosten führen (2016) 0.05
    0.047853187 = product of:
      0.14355956 = sum of:
        0.11145297 = weight(_text_:einzelne in 959) [ClassicSimilarity], result of:
          0.11145297 = score(doc=959,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 959, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
        0.032106593 = weight(_text_:der in 959) [ClassicSimilarity], result of:
          0.032106593 = score(doc=959,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 959, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=959)
      0.33333334 = coord(2/6)
    
    Abstract
    Open Access kennt verschiedene Spielarten. Der grüne Open Access ist in der Regel kostenfrei, denn hier werden Nutzern bereits in wissenschaftlichen Journalen publizierte Artikel in einer Art Zweitverwertung auf Open-Access-Servern entgeltfrei bereitgestellt. Im goldenen Open Access hingegen finden sich Journale, die Artikel ohne Publikationsgebühren im Open Access veröffentlichen, und solche, die für die Veröffentlichung der Texte eine sogenannte Article Processing Charge (APC) erheben. Daneben existiert noch der hybride Open Access: Dabei werden einzelne Artikel aus Journalen, die nicht im Open Access erscheinen, gegen entsprechende Zahlungen für die entgeltfreie Verfügbarkeit freigekauft.
  9. Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität : eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes (2005) 0.05
    0.047657773 = product of:
      0.14297332 = sum of:
        0.11914036 = weight(_text_:theorien in 4505) [ClassicSimilarity], result of:
          0.11914036 = score(doc=4505,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 4505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
        0.023832968 = weight(_text_:der in 4505) [ClassicSimilarity], result of:
          0.023832968 = score(doc=4505,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25648075 = fieldWeight in 4505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie passen mentale Phänomene wie Bewusstsein, Intentionalität und mentale Verursachung zum "Rest des Universums" und wie bringen wir unsere Theorien dieser Phänomene im Gebäude unserer übrigen Welterklärungen unter? Wie muss eine Theorie aussehen, die wissenschaftlichen Ansprüchen und neurowissenschaftlichen Erkenntnissen gerecht wird, ohne grundlegende Intuitionen und bewusste, subjektive wie qualitative Erfahrungen des Mentalen zu unterdrücken oder zu marginalisieren? - John Rogers Searle vertritt in seinem Buch Mind eine in Teilen verfeinerte Version jenes geschmeidigen Monismus, der auch seine früheren Arbeiten zur Philosophie des Geistes kennzeichnet. Ziel seiner Überlegungen ist eine, "biological naturalism" genannte, umfassende und einheitliche Theorie des Mentalen, die er für die Philosophie als das Projekt menschlicher Selbstverständigung für vordringlich hält. In ihrem Zentrum wiederum steht eine Theorie des Bewusstseins.
  10. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.04
    0.03977696 = product of:
      0.11933087 = sum of:
        0.07960926 = weight(_text_:einzelne in 4963) [ClassicSimilarity], result of:
          0.07960926 = score(doc=4963,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 4963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
        0.03972161 = weight(_text_:der in 4963) [ClassicSimilarity], result of:
          0.03972161 = score(doc=4963,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 4963, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
      0.33333334 = coord(2/6)
    
    Abstract
    Zu den neuesten Vorschlägen der High Level Expertengruppe der EU-Kommission
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.
    Source
    https://www.heise.de/tp/features/Diskussion-um-die-Gestaltung-des-technologischen-Fortschritts-am-Beispiel-der-Kuenstlichen-4278276.html?wt_mc=nl.tp-aktuell.woechentlich
  11. Förster, F.: Bibliographischer und universeller Zugriff : Schriftliche historische Quellen und Werke der fiktionalen Literatur in FRBR (2010) 0.04
    0.03921327 = product of:
      0.1176398 = sum of:
        0.07960926 = weight(_text_:einzelne in 3963) [ClassicSimilarity], result of:
          0.07960926 = score(doc=3963,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 3963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.038030542 = weight(_text_:der in 3963) [ClassicSimilarity], result of:
          0.038030542 = score(doc=3963,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.40926933 = fieldWeight in 3963, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
      0.33333334 = coord(2/6)
    
    Abstract
    Die fortgesetzte Entwicklung des bibliographischen Datenmodells FRBROO steht auf der Agenda des Strategischen Plans der IFLA Cataloguing Section. Als Teil des CIDOC Conceptual Reference Models (CIDOC CRM; ISO 21127:2006, letzte Version: v.5.0.2.) können damit verschieden strukturierte Informationen aus dem Bereich des kulturellen Erbes integriert und ausgetauscht werden; durch FRBROO werden bibliographische Informationen eingebunden. Aufgrund sichtbarer Veränderungen in der Publikationspraxis sind die bisherigen Bibliothekskataloge mit ihrer bibliographischen Fixierung auf das Buch als zentrales zu erschließendes Element nicht mehr zeitgemäß. Eine umfassende Erschließung des kulturellen Erbes gemeinsam mit Museen und Archiven und deren "Objekten" und damit eine ontologisch fundierte Abbildung der in naher Zukunft komplett digital vorliegenden publikatorischen Vielfalt in kollaborativ gepflegten Katalogen wissenschaftlicher Bibliotheken gelingt nur, wenn zum einen der einzelne Text als "bibliographisches Objekt", was sowohl historische Quellen, fiktionale Werke als auch wissenschaftliche Aufsätze umfasst, formal und sachlich erschlossen wird und zum anderen das Ereignis als Ausgangspunkt der Erschließungsarbeit betrachtet wird. Zwei Folgerungen ergeben sich daraus: 1) Die semantischen Ebenen der Wissensrepräsentation nach Erwin Panofsky sollten um eine vierte Ebene erweitert werden, die als "acrossness" bezeichnet wird. 2) Die Aufgabe des wissenschaftlichen Bibliothekars sollte in einer intellektuellen Verwaltung der Neuerscheinungen, aber auch einer intellektuellen Durchdringung des eigenen Fachgebietes bestehen.
    Content
    Vortrag im Rahmen der Session 93. Cataloguing der WORLD LIBRARY AND INFORMATION CONGRESS: 76TH IFLA GENERAL CONFERENCE AND ASSEMBLY, 10-15 August 2010, Gothenburg, Sweden
  12. Heuvelmann, R.: FRBR-Strukturierung von MAB-Daten, oder : Wieviel MAB passt in FRBR? (2005) 0.04
    0.03664905 = product of:
      0.10994714 = sum of:
        0.07960926 = weight(_text_:einzelne in 466) [ClassicSimilarity], result of:
          0.07960926 = score(doc=466,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 466, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
        0.03033788 = weight(_text_:der in 466) [ClassicSimilarity], result of:
          0.03033788 = score(doc=466,freq=14.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.326484 = fieldWeight in 466, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=466)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Expertengruppe MAB-Ausschuss (seit 2005: Expertengruppe Datenformate) hat sich im Verlauf des Jahres 2004 mit den FRBR und ihren Bezügen zum MABFormat befasst. Es wurde eine Tabelle FRBR => MAB erstellt (veröffentlicht unter http://www.ddb.de/professionell/pdf/frbr_mab.pdf), wichtige Ergebnisse wurden im Artikel "Maschinelles Austauschformat für Bibliotheken und die Functional Requirements for Bibliographic Records : Oder: Wieviel FRBR verträgt MAB?" im "Bibliotheksdienst" 39 (2005), Heft 10 zusammengefasst. Ergänzend dazu wurde bei der Arbeitsstelle Datenformate Der Deutschen Bibliothek versucht, MAB-Daten zu "frbrisieren", d. h. einzelne MAB-Datensätze in die vier Entitäten der Gruppe 1 (work / expression / manifestation / item) zu differenzieren. Ziel war nicht, einen fertigen OPAC-Baustein für die Indexierung, Benutzerführung oder Präsentation zu erstellen. Ziel war vielmehr, anhand von konkreten, in MAB strukturierten Daten die Schichten sichtbar zu machen. Ausgewählt für diesen Zweck wurde BISMAS, das "Bibliographische Informations-System zur Maschinellen Ausgabe und Suche" des BIS Oldenburg (www.bismas.de). In BISMAS ist es mit relativ geringem Aufwand möglich, die Präsentation eines Satzes - basierend auf der intern vorliegenden Datensatzstruktur, z.B. MAB - frei zu definieren. Die Gestaltung der Indices und der Ausgabeformate erfolgt in BISMAS mit Hilfe der Programmiersprache LM. Die Ergebnisse sollen hier anhand von Beispielen dargestellt werden.
  13. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.03
    0.032478057 = product of:
      0.09743417 = sum of:
        0.055726483 = weight(_text_:einzelne in 313) [ClassicSimilarity], result of:
          0.055726483 = score(doc=313,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.22760123 = fieldWeight in 313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.041707687 = weight(_text_:der in 313) [ClassicSimilarity], result of:
          0.041707687 = score(doc=313,freq=54.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44884127 = fieldWeight in 313, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
      0.33333334 = coord(2/6)
    
    Content
    "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
    Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
    Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
  14. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 3772) [ClassicSimilarity], result of:
          0.06368741 = score(doc=3772,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 3772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
        0.03307485 = weight(_text_:der in 3772) [ClassicSimilarity], result of:
          0.03307485 = score(doc=3772,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 3772, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
      0.33333334 = coord(2/6)
    
    Abstract
    Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
  15. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06368741 = score(doc=431,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.03307485 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.03307485 = score(doc=431,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  16. Schmid, F.: »Information« ist Syntax, nicht Sinn : Quasisakrale Weltformel (2019) 0.03
    0.032206677 = product of:
      0.09662002 = sum of:
        0.05957018 = weight(_text_:theorien in 5289) [ClassicSimilarity], result of:
          0.05957018 = score(doc=5289,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.21786368 = fieldWeight in 5289, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5289)
        0.03704985 = weight(_text_:der in 5289) [ClassicSimilarity], result of:
          0.03704985 = score(doc=5289,freq=58.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3987155 = fieldWeight in 5289, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5289)
      0.33333334 = coord(2/6)
    
    Content
    "Information, so scheint es, ist etwas Positives und ungemein Wichtiges, das gesellschaftliches Leben gestaltet. Aber eine griffige Definition des Wortes kennt nicht einmal die »Informationstheorie«, schreibt der Politologe Robert Feustel in seinem Essay »Am Anfang war die Information«. Für ihn ist »Information ein vom Menschenhirn erdachter Signifikant, der permanent schillert, Form und Sinn wechselt und gerade durch seine uferlose Verwendung entleert wird«. Dabei ist das Wort noch gar nicht lange derart präsent. Sein unglaublicher Aufschwung begann Mitte des 20. Jahrhunderts, als die »Kybernetik« die gesellschaftspolitische und philosophiegeschichtliche Bühne betrat. Hatte im 19. Jahrhundert noch die Angst vor »Entropie« und Chaos vorgeherrscht, das mancher in den Verwerfungen der Industrialisierung manifestiert sah, kommt in den 1950ern mit der Kybernetik ein Denkstil und eine Wissensordnung auf, die für Natur und Kultur, Technik und Gesellschaft einheitliche Steuerungsprinzipien annimmt. Einer ihrer Kernbegriffe ist eben die Information - und die späteren Diskurse der »Digitalisierung« setzten auf der Kybernetik auf. Bald, so schon die Kybernetiker, werde der Mensch, den auch sie sich bereits als Ansammlung von Daten und Informationen vorstellten, durch Maschinen ersetzbar sein.
    Doch obwohl das in der Science-Fiction schon tausendmal durchgespielt wurde, gibt es noch immer keinen Computer, der Menschen imitieren kann. Die Rechnerleistungen werden zwar immer größer, aber »dennoch sind die Computer so dumm wie zuvor (.) Sie prozessieren Informationen anhand einer bestimmten und von Menschen eingegebenen Syntax. Mit der Bedeutung, der Semantik, den Ergebnissen können sie nichts anfangen«, schreibt Feustel. Das klassische Beispiel ist der Android Data in der Serie »Star Trek«, der keine Witze versteht, so sehr er sich auch müht - so setzte die Kulturindustrie vor 30 Jahren diesen Vorbehalt in Szene. Heute überwiegen hingegen Plots wie im Film »Lucy« von Luc Besson, in dem Mensch und Maschine als zwei Arten von Informationsflüssen prinzipiell kompatibel sind. Angesichts von Big-Data-Strömen und den »Deep Learning«-Prozessen der viel beschworenen Algorithmen wird allenthalben die Hoffnung - oder Befürchtung - artikuliert, es könne plötzlich eine selbstständige Intelligenz im Netz entstehen, die eben nicht mehr nur syntaktisch verarbeitet, sondern »semantisches« Bewusstsein entwickelt. Die Information könne quasi lebendig werden und als Geist aus der Flasche steigen.
    Nicht nur der Google-Chefentwickler Ray Kurzweil hausiert schon seit Jahr und Tag mit dieser technizistischen Neuauflage jenes klassischen religiösen Ur-Moments, den Michelangelo auf dem berühmten Fresko in der Sixtinischen Kapelle festgehalten hat, auf dem Gott im Begriff ist, den erst körperlich erschaffenen Menschen durch eine Berührung der Fingerspitzen zu »beseelen«. Im Silicon Valley befassen sich ganze Think Tanks damit. Wie aber soll sich der Sprung vom Beschleunigen serieller Rechnungen mit Nullen und Einsen zum bewussten Denken, gar Fühlen und Begehren vollziehen? Darauf gibt es keine Antwort innerhalb der Ingenieurwissenschaft. Die Vorstellung, das Hirn sei nicht kategorisch von einer Anhäufung von Bits und Bytes zu unterscheiden - also von Informationen, die irgendwo hochgeladen oder maschinell generiert werden können -, erhebt die »Information« zu einer quasi sakralen Weltformel. Dieselbe hat aber natürlich sehr reale und rapide wachsende Auswirkungen auf unser soziales und politisches Leben. Das muntere Prozessieren von Informationen, die vor allem durch ihre Unmittelbarkeit enorme Wirkung entfalten, öffnet dem Gerücht, der Spekulation und den viel beschworenen Fake News Tür und Tor, wie Donald Trump mit seinen Tweets stets aufs Neue beweist. In digitalen Netzwerken vervielfachen sich Informationen, ihre semantische Stimmigkeit ist sekundär. »Alles, was prozessiert werden kann, hat Relevanz, von Aktienkursen über Theorien zur flachen Erde oder zu Reptiloiden. Es muss nicht stimmen, nur effektvoll zirkulieren«, schreibt Feustel - der auch als Mitautor des »Wörterbuchs des besorgten Bürgers« bekannt ist, in dem er und einige Wissenschaftskollegen sich kritisch mit den Begriffen der Neuen Rechten auseinandersetzen.
    Ist »Information« also am Ende gar nicht so bedeutsam oder wichtig, wie es scheint und man uns auch glauben machen will? Ist dieser Heilige Gral der Jetztzeit nicht viel mehr als eine leere Hülle, die als sinnstiftendes und das Chaos ausräumende Moment in unserem sozialen und politischen Leben völlig überbewertet wird? Diese Frage kann und sollte man sich stellen. Hinter der Information aber nun eine große Gefahr oder einen heimlichen Herrschaftsapparat zu vermuten, wäre gleichfalls Unsinn. Feustels Essay ist weit von Technikfeindlichkeit entfernt. Es geht darum, das inflationäre Reden über die Information, die in unserer Gesellschaft längst Fetischcharakter erlangt hat, ideologiekritisch anzuleuchten und sich - so Feustel - nicht von der »philosophischen Großspurigkeit der Kybernetik« an der Nase herumführen zu lassen. Für das Alltagsleben dürfte das eine gute Richtschnur sein. Es muss uns nicht nur darum gehen, am Informationsfluss beteiligt zu sein, sondern sich mit dessen Inhalt auseinanderzusetzen."
  17. Röthler, D.: "Lehrautomaten" oder die MOOC-Vision der späten 60er Jahre (2014) 0.03
    0.031784397 = product of:
      0.095353186 = sum of:
        0.061536446 = weight(_text_:der in 1552) [ClassicSimilarity], result of:
          0.061536446 = score(doc=1552,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.6622304 = fieldWeight in 1552, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1552)
        0.033816744 = product of:
          0.06763349 = sum of:
            0.06763349 = weight(_text_:22 in 1552) [ClassicSimilarity], result of:
              0.06763349 = score(doc=1552,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.46428138 = fieldWeight in 1552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1552)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Enthält eine Verbindung zwischen der Vorstellung der Lehrautomaten von Karl Steinbuch aus der 'Informierten Gesellschaft' und den MOOCs
    Date
    22. 6.2018 11:04:35
    Source
    http://david.roethler.at/lehrautomaten-oder-die-mooc-vision-der-spaeten-60er-jahre/
  18. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.03
    0.031739008 = product of:
      0.09521702 = sum of:
        0.06894364 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.06894364 = score(doc=5908,freq=6.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.026273374 = weight(_text_:der in 5908) [ClassicSimilarity], result of:
          0.026273374 = score(doc=5908,freq=42.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.28274342 = fieldWeight in 5908, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
  19. Digitale Zukunft: Lernen. Forschen. Wissen : Die Digitalstrategie des BMBF (2019) 0.03
    0.031370617 = product of:
      0.094111845 = sum of:
        0.06368741 = weight(_text_:einzelne in 5375) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5375,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
        0.030424435 = weight(_text_:der in 5375) [ClassicSimilarity], result of:
          0.030424435 = score(doc=5375,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32741547 = fieldWeight in 5375, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5375)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Digitalisierung so gestalten, dass sie den Menschen dient - das ist Ziel unserer Digitalisierungsstrategie.Wie können wir uns die Bildung der Zukunft vorstellen? Ich denke an Leh-rer, die Kinder in der ersten Schulstunde in den Wald mitnehmen, um Käfer zu sammeln; die ihnen in der zweiten Stunde das Insektensterben erläutern, unterstützt durch Bilder und Grafiken am Smartboard; und die in der dritten Stunde mit Lernprogrammen überprüfen, was jedes einzelne Kind verstanden hat und wo noch einmal nachgehakt werden muss. Wie können wir uns die Medizin der Zukunft vorstellen? Ich denke an die Ärztin, die sich Zeit für ihre Patienten nimmt; die Untersuchungsergebnisse in den Computer eingibt, der sie mit anderen Fällen vergleicht und daraus Rückschlüsse zieht; die Künstliche Intelli-genz nutzt, um die individuell auf den einzelnen Patienten zugeschnittene Therapie zu finden; und die sie mit dem Patienten bespricht und abstimmt.Wie können wir uns die Mobilität der Zukunft vorstellen? Ich denke an die ältere Dame, die per Smartphone das autonom fahrende Auto vor ihr Haus auf dem Land bestellt; die damit zum Bahnhof fährt; die dann den Zug in die Großstadt nimmt, um schließlich mit dem Flugtaxi direkt vor die Haustür ihres Enkels zu fliegen. In meiner Zukunftsvision verbessern digitale Technologien und Möglichkeiten unser Leben. Zugleich stehen wir vor großen Herausforderungen: Wie garantieren wir unseren Lebensstandard in Zeiten wach-senden globalen Wettbewerbs? Wie schaffen wir neue Arbeitsplätze, wenn alte verloren gehen? Wie schützen wir unsere eigenen Daten und unsere Privatsphäre? Antworten auf diese Fragen geben wir mit unserer Digitalstrategie.Mit unserer Digitalstrategie zeigen wir, wie wir die Chancen entwickeln und uns offensiv den Herausforderungen stellen: Wir nutzen unsere Strategie für Künstliche Intelligenz, um die Datensicherheit und den Schutz der Privat-sphäre zu stärken. Wir fördern Forschung und Entwicklung von KI-Anwendungen zum Schutz der Verbraucherin-nen und Verbraucher. Wir haben die nationale Dekade gegen Krebs ausgerufen, weil wir große Potenziale moderner Technologien bei der Krebsprävention erkannt haben. Mit dem DigitalPakt wollen wir nachwachsende Generatio-nen zu einem eigenverantwortlichen Umgang mit digitalen Neuerungen befähigen. Der MINT-Aktionsplan legt die Grundlage, damit Deutschland in Wissenschaft, Forschung und Innovation weiterhin zur Spitze gehört.Unsere Digitalstrategie verstehen wir als dynamischen Prozess im Sinne des offenen Dialogs, um gemeinsam den Herausforderungen des digitalen Wandels zu begegnen. Die Menschen stehen im Mittelpunkt. Ich bin überzeugt, mit Hilfe von Bildung und Forschung bereiten wir sie auf veränderte Lebens- und Arbeitsbedingungen vor, stärken die Innovationskraft unserer Wirtschaft und sichern damit unseren Wohlstand. (A. Karliczec)
  20. Seer, V.: Von der Schattenbibliothek zum Forschungskorpus : ein Gespräch über Sci-Hub und die Folgen für die Wissenschaft (2017) 0.03
    0.031370617 = product of:
      0.094111845 = sum of:
        0.06368741 = weight(_text_:einzelne in 5606) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5606,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.030424435 = weight(_text_:der in 5606) [ClassicSimilarity], result of:
          0.030424435 = score(doc=5606,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32741547 = fieldWeight in 5606, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
      0.33333334 = coord(2/6)
    
    Abstract
    Die so genannten Schattenbibliotheken sind vermutlich die radikalste Form, um Beschränkungen des Zugangs zu wissenschaftlicher Literatur zu umgehen. Sie nutzen die Möglichkeiten digitaler Medien und Netze und vermitteln konsequent, niedrigschwellig und umfangreich den Zugang zu digitalen Kopien von Monographien und Aufsätzen. Obschon offensichtlich in vielen Fällen urheberrechtswidrig, erfreuen sich diese Plattformen einer regen Nachfrage und zwar naturgemäß vor allem aus dem Bereich der Wissenschaft. Es scheint, als würden die Schattenbibliotheken Versorgungslücken schließen, die auch vergleichsweise gut ausgestattete Hochschulbibliotheken haben. Einer weiterer Aspekt könnte sein, dass die sehr einfache Benutzbarkeit verbunden mit der Aussicht, ein Paper garantiert herunterladen zu können, den Umweg über VPN-Einwahl und Bibliotheks-Login unattraktiv macht. Werden Schattenbibliotheken somit zur Konkurrenz für Hochschulbibliotheken? Und mit welcher Motivation setzen sich die Betreiber dieser Plattformen einer möglichen Strafverfolgung, die im Kontext der jüngsten Urteile nun wahrscheinlicher wird, aus? Im Juni diesen Jahres bekam der Wissenschaftsverlag Elsevier, der Gewinnmargen von 37% erzielt (siehe Holcombe 2015), von einem US-Gericht knapp 13 Millionen Euro Schadensersatz für die nicht genehmigte Verbreitung von 100 wissenschaftlichen Artikeln (siehe Scherschel 2017 und Strecker 2017) zugesprochen. Die Fachgesellschaft American Chemical Society (ACS) erhielt in einem zweiten Urteil den Anspruch auf knapp 4,1 Millionen Euro Schadenersatz für 32 zu Unrecht kopierte und verbreitete Werke (Siehe Ernesto 2017). Neben der zunehmenden Kriminalisierung erfährt Sci-Hub jedoch auch großen Zuspruch, der sich neben der starken Nutzung auch in Solidaritätsbekundungen manifestiert (siehe Barok, D. et al 2015).
    LIBREAS hatte die Gelegenheit, sich mit einer an der Plattform Sci-Hub beteiligten Person zu unterhalten. Das Interview und die damit verbundenen informationsethischen Fragestellungen führten dabei redaktionsintern zu einigen Diskussionen. Auch stand die Frage im Raum, ob der Text überhaupt veröffentlicht werden sollte. Sci-Hub kann jedoch als mittlerweile sehr großer potentieller Forschungskorpus sowie aufgrund seiner starken Nutzung als wissenschaftliches Instrument trotz seines rechtlichen Status nicht ignoriert werden. Wir haben versucht, einzelne Behauptungen im Text mit Quellen zu belegen. Naturgemäß sind jedoch nicht sämtliche Angaben verifizierbar. Daher haben wir uns entschlossen größtenteils möglichst direkt die Aussagen des Interviewpartners wiederzugeben. Alle redaktionellen Anmerkungen sind durch eckige Klammern gekennzeichnet. Das Gespräch für LIBREAS führten Linda Freyberg und Ben Kaden.

Years

Types

  • a 440
  • i 75
  • m 24
  • x 17
  • r 14
  • b 12
  • s 6
  • l 3
  • n 3
  • p 2
  • More… Less…

Themes

Classifications