Search (485 results, page 1 of 25)

  • × type_ss:"el"
  • × type_ss:"a"
  1. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.17
    0.16791482 = product of:
      0.33582965 = sum of:
        0.11145297 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.11145297 = score(doc=1047,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.19657157 = weight(_text_:theorien in 1047) [ClassicSimilarity], result of:
          0.19657157 = score(doc=1047,freq=4.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.7189135 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.027805127 = weight(_text_:der in 1047) [ClassicSimilarity], result of:
          0.027805127 = score(doc=1047,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.5 = coord(3/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.12
    0.117458925 = product of:
      0.35237676 = sum of:
        0.08809419 = product of:
          0.26428255 = sum of:
            0.26428255 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.26428255 = score(doc=230,freq=2.0), product of:
                0.35267892 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04159925 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.26428255 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.26428255 = score(doc=230,freq=2.0), product of:
            0.35267892 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04159925 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.33333334 = coord(2/6)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Schleim, S.: Vielleicht doch keine neuen Nervenzellen im Gehirn - na und?! (2018) 0.06
    0.061599955 = product of:
      0.18479986 = sum of:
        0.15885381 = weight(_text_:theorien in 4262) [ClassicSimilarity], result of:
          0.15885381 = score(doc=4262,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.5809698 = fieldWeight in 4262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0625 = fieldNorm(doc=4262)
        0.025946045 = weight(_text_:der in 4262) [ClassicSimilarity], result of:
          0.025946045 = score(doc=4262,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 4262, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4262)
      0.33333334 = coord(2/6)
    
    Abstract
    Denken wir an Karl Popper (1902-1994), einen der berühmtesten Wissenschaftstheoretiker des 20. Jahrhunderts. Ihm haben wir nicht nur die Idee zu verdanken, dass wissenschaftliche Hypothesen und Theorien falsifizierbar sein müssen - also so formuliert sein müssen, dass sie zumindest prinzipiell an Beobachtungen und Messungen scheitern können. Auch Poppers Hinweise auf die Fehlbarkeit (Fachsprache: Fallibilität) wissenschaftlichen Wissens waren ein bedeutender Beitrag zu unserer Ideengeschichte.
    Content
    Vgl. auch: https://www.heise.de/tp/features/Braucht-der-menschliche-Hippokampus-neue-Nervenzellen-4038079.html?view=print.
  4. Löhrer, G.: Der Anti-Dualismus, sein Vokabular und dessen Ambiguität : eine methodische Bemerkung zu Searles monistischen Auffassungen in der Philosophie des Geistes (2005) 0.05
    0.047657773 = product of:
      0.14297332 = sum of:
        0.11914036 = weight(_text_:theorien in 4505) [ClassicSimilarity], result of:
          0.11914036 = score(doc=4505,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 4505, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
        0.023832968 = weight(_text_:der in 4505) [ClassicSimilarity], result of:
          0.023832968 = score(doc=4505,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25648075 = fieldWeight in 4505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4505)
      0.33333334 = coord(2/6)
    
    Abstract
    Wie passen mentale Phänomene wie Bewusstsein, Intentionalität und mentale Verursachung zum "Rest des Universums" und wie bringen wir unsere Theorien dieser Phänomene im Gebäude unserer übrigen Welterklärungen unter? Wie muss eine Theorie aussehen, die wissenschaftlichen Ansprüchen und neurowissenschaftlichen Erkenntnissen gerecht wird, ohne grundlegende Intuitionen und bewusste, subjektive wie qualitative Erfahrungen des Mentalen zu unterdrücken oder zu marginalisieren? - John Rogers Searle vertritt in seinem Buch Mind eine in Teilen verfeinerte Version jenes geschmeidigen Monismus, der auch seine früheren Arbeiten zur Philosophie des Geistes kennzeichnet. Ziel seiner Überlegungen ist eine, "biological naturalism" genannte, umfassende und einheitliche Theorie des Mentalen, die er für die Philosophie als das Projekt menschlicher Selbstverständigung für vordringlich hält. In ihrem Zentrum wiederum steht eine Theorie des Bewusstseins.
  5. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.04
    0.03977696 = product of:
      0.11933087 = sum of:
        0.07960926 = weight(_text_:einzelne in 4963) [ClassicSimilarity], result of:
          0.07960926 = score(doc=4963,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 4963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
        0.03972161 = weight(_text_:der in 4963) [ClassicSimilarity], result of:
          0.03972161 = score(doc=4963,freq=24.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 4963, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
      0.33333334 = coord(2/6)
    
    Abstract
    Zu den neuesten Vorschlägen der High Level Expertengruppe der EU-Kommission
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.
    Source
    https://www.heise.de/tp/features/Diskussion-um-die-Gestaltung-des-technologischen-Fortschritts-am-Beispiel-der-Kuenstlichen-4278276.html?wt_mc=nl.tp-aktuell.woechentlich
  6. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.03
    0.032478057 = product of:
      0.09743417 = sum of:
        0.055726483 = weight(_text_:einzelne in 313) [ClassicSimilarity], result of:
          0.055726483 = score(doc=313,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.22760123 = fieldWeight in 313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.041707687 = weight(_text_:der in 313) [ClassicSimilarity], result of:
          0.041707687 = score(doc=313,freq=54.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44884127 = fieldWeight in 313, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
      0.33333334 = coord(2/6)
    
    Content
    "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
    Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
    Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
  7. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 3772) [ClassicSimilarity], result of:
          0.06368741 = score(doc=3772,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 3772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
        0.03307485 = weight(_text_:der in 3772) [ClassicSimilarity], result of:
          0.03307485 = score(doc=3772,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 3772, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
      0.33333334 = coord(2/6)
    
    Abstract
    Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
  8. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06368741 = score(doc=431,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.03307485 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.03307485 = score(doc=431,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  9. Schmid, F.: »Information« ist Syntax, nicht Sinn : Quasisakrale Weltformel (2019) 0.03
    0.032206677 = product of:
      0.09662002 = sum of:
        0.05957018 = weight(_text_:theorien in 5289) [ClassicSimilarity], result of:
          0.05957018 = score(doc=5289,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.21786368 = fieldWeight in 5289, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5289)
        0.03704985 = weight(_text_:der in 5289) [ClassicSimilarity], result of:
          0.03704985 = score(doc=5289,freq=58.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3987155 = fieldWeight in 5289, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5289)
      0.33333334 = coord(2/6)
    
    Content
    "Information, so scheint es, ist etwas Positives und ungemein Wichtiges, das gesellschaftliches Leben gestaltet. Aber eine griffige Definition des Wortes kennt nicht einmal die »Informationstheorie«, schreibt der Politologe Robert Feustel in seinem Essay »Am Anfang war die Information«. Für ihn ist »Information ein vom Menschenhirn erdachter Signifikant, der permanent schillert, Form und Sinn wechselt und gerade durch seine uferlose Verwendung entleert wird«. Dabei ist das Wort noch gar nicht lange derart präsent. Sein unglaublicher Aufschwung begann Mitte des 20. Jahrhunderts, als die »Kybernetik« die gesellschaftspolitische und philosophiegeschichtliche Bühne betrat. Hatte im 19. Jahrhundert noch die Angst vor »Entropie« und Chaos vorgeherrscht, das mancher in den Verwerfungen der Industrialisierung manifestiert sah, kommt in den 1950ern mit der Kybernetik ein Denkstil und eine Wissensordnung auf, die für Natur und Kultur, Technik und Gesellschaft einheitliche Steuerungsprinzipien annimmt. Einer ihrer Kernbegriffe ist eben die Information - und die späteren Diskurse der »Digitalisierung« setzten auf der Kybernetik auf. Bald, so schon die Kybernetiker, werde der Mensch, den auch sie sich bereits als Ansammlung von Daten und Informationen vorstellten, durch Maschinen ersetzbar sein.
    Doch obwohl das in der Science-Fiction schon tausendmal durchgespielt wurde, gibt es noch immer keinen Computer, der Menschen imitieren kann. Die Rechnerleistungen werden zwar immer größer, aber »dennoch sind die Computer so dumm wie zuvor (.) Sie prozessieren Informationen anhand einer bestimmten und von Menschen eingegebenen Syntax. Mit der Bedeutung, der Semantik, den Ergebnissen können sie nichts anfangen«, schreibt Feustel. Das klassische Beispiel ist der Android Data in der Serie »Star Trek«, der keine Witze versteht, so sehr er sich auch müht - so setzte die Kulturindustrie vor 30 Jahren diesen Vorbehalt in Szene. Heute überwiegen hingegen Plots wie im Film »Lucy« von Luc Besson, in dem Mensch und Maschine als zwei Arten von Informationsflüssen prinzipiell kompatibel sind. Angesichts von Big-Data-Strömen und den »Deep Learning«-Prozessen der viel beschworenen Algorithmen wird allenthalben die Hoffnung - oder Befürchtung - artikuliert, es könne plötzlich eine selbstständige Intelligenz im Netz entstehen, die eben nicht mehr nur syntaktisch verarbeitet, sondern »semantisches« Bewusstsein entwickelt. Die Information könne quasi lebendig werden und als Geist aus der Flasche steigen.
    Nicht nur der Google-Chefentwickler Ray Kurzweil hausiert schon seit Jahr und Tag mit dieser technizistischen Neuauflage jenes klassischen religiösen Ur-Moments, den Michelangelo auf dem berühmten Fresko in der Sixtinischen Kapelle festgehalten hat, auf dem Gott im Begriff ist, den erst körperlich erschaffenen Menschen durch eine Berührung der Fingerspitzen zu »beseelen«. Im Silicon Valley befassen sich ganze Think Tanks damit. Wie aber soll sich der Sprung vom Beschleunigen serieller Rechnungen mit Nullen und Einsen zum bewussten Denken, gar Fühlen und Begehren vollziehen? Darauf gibt es keine Antwort innerhalb der Ingenieurwissenschaft. Die Vorstellung, das Hirn sei nicht kategorisch von einer Anhäufung von Bits und Bytes zu unterscheiden - also von Informationen, die irgendwo hochgeladen oder maschinell generiert werden können -, erhebt die »Information« zu einer quasi sakralen Weltformel. Dieselbe hat aber natürlich sehr reale und rapide wachsende Auswirkungen auf unser soziales und politisches Leben. Das muntere Prozessieren von Informationen, die vor allem durch ihre Unmittelbarkeit enorme Wirkung entfalten, öffnet dem Gerücht, der Spekulation und den viel beschworenen Fake News Tür und Tor, wie Donald Trump mit seinen Tweets stets aufs Neue beweist. In digitalen Netzwerken vervielfachen sich Informationen, ihre semantische Stimmigkeit ist sekundär. »Alles, was prozessiert werden kann, hat Relevanz, von Aktienkursen über Theorien zur flachen Erde oder zu Reptiloiden. Es muss nicht stimmen, nur effektvoll zirkulieren«, schreibt Feustel - der auch als Mitautor des »Wörterbuchs des besorgten Bürgers« bekannt ist, in dem er und einige Wissenschaftskollegen sich kritisch mit den Begriffen der Neuen Rechten auseinandersetzen.
    Ist »Information« also am Ende gar nicht so bedeutsam oder wichtig, wie es scheint und man uns auch glauben machen will? Ist dieser Heilige Gral der Jetztzeit nicht viel mehr als eine leere Hülle, die als sinnstiftendes und das Chaos ausräumende Moment in unserem sozialen und politischen Leben völlig überbewertet wird? Diese Frage kann und sollte man sich stellen. Hinter der Information aber nun eine große Gefahr oder einen heimlichen Herrschaftsapparat zu vermuten, wäre gleichfalls Unsinn. Feustels Essay ist weit von Technikfeindlichkeit entfernt. Es geht darum, das inflationäre Reden über die Information, die in unserer Gesellschaft längst Fetischcharakter erlangt hat, ideologiekritisch anzuleuchten und sich - so Feustel - nicht von der »philosophischen Großspurigkeit der Kybernetik« an der Nase herumführen zu lassen. Für das Alltagsleben dürfte das eine gute Richtschnur sein. Es muss uns nicht nur darum gehen, am Informationsfluss beteiligt zu sein, sondern sich mit dessen Inhalt auseinanderzusetzen."
  10. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.03
    0.031739008 = product of:
      0.09521702 = sum of:
        0.06894364 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.06894364 = score(doc=5908,freq=6.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.026273374 = weight(_text_:der in 5908) [ClassicSimilarity], result of:
          0.026273374 = score(doc=5908,freq=42.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.28274342 = fieldWeight in 5908, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
  11. Seer, V.: Von der Schattenbibliothek zum Forschungskorpus : ein Gespräch über Sci-Hub und die Folgen für die Wissenschaft (2017) 0.03
    0.031370617 = product of:
      0.094111845 = sum of:
        0.06368741 = weight(_text_:einzelne in 5606) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5606,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.030424435 = weight(_text_:der in 5606) [ClassicSimilarity], result of:
          0.030424435 = score(doc=5606,freq=22.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.32741547 = fieldWeight in 5606, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
      0.33333334 = coord(2/6)
    
    Abstract
    Die so genannten Schattenbibliotheken sind vermutlich die radikalste Form, um Beschränkungen des Zugangs zu wissenschaftlicher Literatur zu umgehen. Sie nutzen die Möglichkeiten digitaler Medien und Netze und vermitteln konsequent, niedrigschwellig und umfangreich den Zugang zu digitalen Kopien von Monographien und Aufsätzen. Obschon offensichtlich in vielen Fällen urheberrechtswidrig, erfreuen sich diese Plattformen einer regen Nachfrage und zwar naturgemäß vor allem aus dem Bereich der Wissenschaft. Es scheint, als würden die Schattenbibliotheken Versorgungslücken schließen, die auch vergleichsweise gut ausgestattete Hochschulbibliotheken haben. Einer weiterer Aspekt könnte sein, dass die sehr einfache Benutzbarkeit verbunden mit der Aussicht, ein Paper garantiert herunterladen zu können, den Umweg über VPN-Einwahl und Bibliotheks-Login unattraktiv macht. Werden Schattenbibliotheken somit zur Konkurrenz für Hochschulbibliotheken? Und mit welcher Motivation setzen sich die Betreiber dieser Plattformen einer möglichen Strafverfolgung, die im Kontext der jüngsten Urteile nun wahrscheinlicher wird, aus? Im Juni diesen Jahres bekam der Wissenschaftsverlag Elsevier, der Gewinnmargen von 37% erzielt (siehe Holcombe 2015), von einem US-Gericht knapp 13 Millionen Euro Schadensersatz für die nicht genehmigte Verbreitung von 100 wissenschaftlichen Artikeln (siehe Scherschel 2017 und Strecker 2017) zugesprochen. Die Fachgesellschaft American Chemical Society (ACS) erhielt in einem zweiten Urteil den Anspruch auf knapp 4,1 Millionen Euro Schadenersatz für 32 zu Unrecht kopierte und verbreitete Werke (Siehe Ernesto 2017). Neben der zunehmenden Kriminalisierung erfährt Sci-Hub jedoch auch großen Zuspruch, der sich neben der starken Nutzung auch in Solidaritätsbekundungen manifestiert (siehe Barok, D. et al 2015).
    LIBREAS hatte die Gelegenheit, sich mit einer an der Plattform Sci-Hub beteiligten Person zu unterhalten. Das Interview und die damit verbundenen informationsethischen Fragestellungen führten dabei redaktionsintern zu einigen Diskussionen. Auch stand die Frage im Raum, ob der Text überhaupt veröffentlicht werden sollte. Sci-Hub kann jedoch als mittlerweile sehr großer potentieller Forschungskorpus sowie aufgrund seiner starken Nutzung als wissenschaftliches Instrument trotz seines rechtlichen Status nicht ignoriert werden. Wir haben versucht, einzelne Behauptungen im Text mit Quellen zu belegen. Naturgemäß sind jedoch nicht sämtliche Angaben verifizierbar. Daher haben wir uns entschlossen größtenteils möglichst direkt die Aussagen des Interviewpartners wiederzugeben. Alle redaktionellen Anmerkungen sind durch eckige Klammern gekennzeichnet. Das Gespräch für LIBREAS führten Linda Freyberg und Ben Kaden.
  12. Lenzen, M.: Vor der Quadratwurzel steht die Quadratzahl (2015) 0.03
    0.03119283 = product of:
      0.09357849 = sum of:
        0.06949854 = weight(_text_:theorien in 1647) [ClassicSimilarity], result of:
          0.06949854 = score(doc=1647,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.2541743 = fieldWeight in 1647, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
        0.024079947 = weight(_text_:der in 1647) [ClassicSimilarity], result of:
          0.024079947 = score(doc=1647,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25913864 = fieldWeight in 1647, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1647)
      0.33333334 = coord(2/6)
    
    Content
    "um Jubiläum eine aufwendige Konferenz und Monate bis Jahre später ein teurer Sammelband, den sich bestenfalls die Universitätsbibliotheken ins Regal stellen: Zum zehnjährigen Bestehen der MIND-Group der Universität Mainz sollte es anders laufen. Deshalb hat die von dem Philosophen Thomas Metzinger geleitete Gruppe aus über neunzig Forschern gerade eine rund zweitausend Seiten umfassende Sammlung von 39 Originalarbeiten zu Geist, Gehirn und Bewusstsein ins Internet gestellt. Kostenlos und frei zugänglich für alle unter www.open-mind.net. Die Texte stammen von den Stars und Aufsteigern der Szene: Paul Churchland erklärt Moral mit Prototypen statt Regeln, Wolf Singer sucht nach den Korrelaten des Bewusstseins, Antti Revonsuo erklärt Träume als soziale Simulation, und Jacob Hohwy präsentiert die hoch gehandelte Theorie vom Gehirn als Voraussagemaschine. Metzinger und Jennifer Windt (Mainz/Melbourne), die als Herausgeber fungieren, wollten mit dem ungewöhnlichen Publikationsformat schneller sein als die üblichen wissenschaftlichen Veröffentlichungen, ohne dabei auf professionelle Qualitätskontrolle zu verzichten. Gleichzeitig wollen sie Nachwuchsforscher einbinden, die sich bisweilen schwertun, den Einstieg in die internationale Debatte zu finden. Dazu erdachten sie einen komplexen Review-Prozess: Alle Texte erscheinen mit ausführlichen Kommentaren und Repliken. So entsteht manch lesenswerte Debatte, etwa wenn Kathinka Evers (Uppsala) und ihr Kommentator Stefan Schleim (Groningen) darum ringen, ob es möglich und wünschenswert ist, Menschen auf epigenetischem Weg friedfertiger zu machen. Leserdiskussionen sind allerdings nicht vorgesehen.
    Die Mainzer Gedankenspende soll auch von Studenten in weniger privilegierten Ländern genutzt werden können. Sie gibt einen guten Überblick über die Vielfalt der Baustellen in der Kognitionsforschung: den flexiblen, voraussagenden, kulturbedingten Geist, den schlafenden, träumenden und moralischen Geist, den künstlichen und den aufgebesserten Geist; über Wahrnehmung und Illusion, Intuition, Bewusstsein, das Selbst und soziale Kognition. Aber auch philosophische Klassiker wie die mentale Verursachung bekommen neuen Schub. Das Bewusstsein ist kein Homunkulus Gemeinsam ist vielen Autoren die Unzufriedenheit mit bestehenden Versuchen. Anders als die Theorie vom voraussagenden Gehirn, die sich mit dessen selbst generierter Aktivität befasst, versucht Richard Menary (Sydney), das dynamische Organ in unserem Kopf in seinen kulturellen Kontext zu stellen. Er erklärt, wie moderne Rechenfertigkeiten mittels Schrift und Rechenzeichen aus unserem angeborenen Sinn für Quantitäten hervorgingen. Erst wenn wir ein System der öffentlichen Manipulation von Zahlen haben, können wir Kuriosa wie Quadratwurzeln entdecken.
    Eine Dauerbaustelle ist der methodische Zugang zu den Inhalten des Bewusstseins. Tim Bayne (Manchester) hat es unternommen, die viel geschmähte Introspektion näher zu untersuchen, und gefunden, dass ihre Brauchbarkeit stark vom zu beobachtenden Phänomen abhängt. Kenneth Williford (Arlington, Texas) wagt sich an die klassisch-kontinentale Diskussion um Selbstbewusstsein und Selbstwissen. Das Bewusstsein, so Williford, ist mit sich selbst vertraut, nicht mit einem Ich, einem Homunkulus. Deshalb finden wir auch kein solches, wenn wir nach innen schauen. Und deshalb brauchen wir auch keine Theorien über Gedanken höherer Ordnung oder die Repräsentation eines ganz besonderen Objekts namens Ich. Das Gefühl, ein Individuum zu sein, ist einfach die Folge dieser Selbstvertrautheit, so Williford. Die versammelten Texte sind so unterschiedlich wie ihre Methoden. Für eine echte interdisziplinäre Geisteswissenschaft braucht es einen offenen Geist, der sich mit schnellen Urteilen zurückhält und tolerant gegenüber unvereinbaren Ansätzen ist, so die Herausgeber. Denn das eine große konsistente Bild des Geistes sei bislang kaum in Ansätzen erkennbar; und dass es intuitiv plausibel und für unser Selbstbild schmeichelhaft ausfallen wird, ist eher zweifelhaft." Vgl.: www.open-mind.net.
  13. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.03
    0.029003412 = product of:
      0.087010235 = sum of:
        0.0675507 = weight(_text_:einzelne in 331) [ClassicSimilarity], result of:
          0.0675507 = score(doc=331,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.27589434 = fieldWeight in 331, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.019459534 = weight(_text_:der in 331) [ClassicSimilarity], result of:
          0.019459534 = score(doc=331,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 331, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  14. Arndt, O.: Totale Telematik (2020) 0.02
    0.022634078 = product of:
      0.06790223 = sum of:
        0.03972161 = weight(_text_:der in 5907) [ClassicSimilarity], result of:
          0.03972161 = score(doc=5907,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 5907, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5907)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 5907) [ClassicSimilarity], result of:
              0.05636124 = score(doc=5907,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 5907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5907)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wüste Phantasien über eine seuchensichere Stadt der Zukunft - ein Gespräch mit dem "Smart Cities"-Experten Anders Riel Müller.
    Content
    Vgl. auch: https://heise.de/-4790095. Vgl. auch die Fortsetzung: Arndt, O.: Erosion der bürgerlichen Freiheiten unter: https://www.heise.de/tp/features/Erosion-der-buergerlichen-Freiheiten-4790106.html?seite=all.
    Date
    22. 6.2020 19:11:24
  15. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.022634078 = product of:
      0.06790223 = sum of:
        0.03972161 = weight(_text_:der in 236) [ClassicSimilarity], result of:
          0.03972161 = score(doc=236,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 236, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=236)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 236) [ClassicSimilarity], result of:
              0.05636124 = score(doc=236,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 236, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=236)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Date
    7. 5.2021 22:10:24
  16. Eyert, F.: Mathematische Wissenschaftskommunikation in der digitalen Gesellschaft (2023) 0.02
    0.022634078 = product of:
      0.06790223 = sum of:
        0.03972161 = weight(_text_:der in 1001) [ClassicSimilarity], result of:
          0.03972161 = score(doc=1001,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.42746788 = fieldWeight in 1001, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1001)
        0.02818062 = product of:
          0.05636124 = sum of:
            0.05636124 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.05636124 = score(doc=1001,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.38690117 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1001)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In der digitalen Gesellschaft gewinnt mathematischesWissen an Bedeutung und vermittelt zunehmend, wie Individuen, Organisationen und Staaten sich zueinander verhalten. Daraus ergeben sich gute Gründe für Mathematiker:innen, sich verstärkt in die Wissenschaftskommunikation einzubringen.
    Source
    Mitteilungen der Deutschen Mathematiker-Vereinigung. 2023, H.1, S.22-25
  17. Schlögl, C.: Zukunft der Informationswissenschaft : Gegenstandsbereich und Perspektiven (2014) 0.02
    0.022628775 = product of:
      0.06788632 = sum of:
        0.048159894 = weight(_text_:der in 3677) [ClassicSimilarity], result of:
          0.048159894 = score(doc=3677,freq=18.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5182773 = fieldWeight in 3677, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3677)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 3677) [ClassicSimilarity], result of:
              0.039452866 = score(doc=3677,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 3677, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3677)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Bevor ich einige Gedanken über die Zukunft der Informationswissenschaft in den deutschsprachigen Ländern anstelle, möchte ich zunächst versuchen, ihren Gegenstandsbereich zu umreißen. Bei einem schwer greifbaren Begriff wie "Information" ist es nicht überraschend, wenn es keine allgemeine Übereinstimmung über die zentralen Themen der Informationswissenschaft gibt.
    "Eine zentrale Frage ist nun, wie der Stellenwert der Informationswissenschaft trotz dieser schwierigen Rahmenbedingungen verbessert werden könnte. Aus Sicht des Autors könnten gerade die in jüngster Zeit auftretenden "Unsicherheiten" bei der Benutzung von Sozialen Medien für die Informationswissenschaft eine große Chance bieten, neu durchzustarten. Wie vor einem halben Jahrhundert der Sputnik-Schock könnte nun der "Trump-Schock" der Informationswissenschaft neuen Auftrieb verleihen. Die entscheidende Frage ist aber, ob die Informationswissenschaft mittlerweile noch "stark" genug ist, diese Trendwende herbeizuführen."
    Date
    22. 6.2017 18:04:28
  18. Pany, T.: Konfusion in der Medienrepublik : Der Überraschungseffekt der Youtuber (2019) 0.02
    0.021710671 = product of:
      0.065132014 = sum of:
        0.04540558 = weight(_text_:der in 5244) [ClassicSimilarity], result of:
          0.04540558 = score(doc=5244,freq=16.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4886365 = fieldWeight in 5244, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5244)
        0.019726433 = product of:
          0.039452866 = sum of:
            0.039452866 = weight(_text_:22 in 5244) [ClassicSimilarity], result of:
              0.039452866 = score(doc=5244,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.2708308 = fieldWeight in 5244, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5244)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Vor der EU-Wahl veröffentlichen 90 "Webstars" eine Wahlempfehlung: "Wählt nicht die CDU/CSU, wählt nicht die SPD und schon gar nicht die AfD". Die Reaktionen sind der eigentliche Aufreger. Bezug zu: https://youtu.be/4Y1lZQsyuSQ und https://youtu.be/Xpg84NjCr9c.
    Content
    Vgl. auch: Dörner, S.:"CDU-Zerstörer" Rezo: Es kamen "Diskreditierung, Lügen, Trump-Wordings und keine inhaltliche Auseinandersetzung" [22. Mai 2019]. Interview mit Rezo. Unter: https://www.heise.de/tp/features/CDU-Zerstoerer-Rezo-Es-kamen-Diskreditierung-Luegen-Trump-Wordings-und-keine-inhaltliche-4428522.html?view=print [http://www.heise.de/-4428522].
    Source
    https://www.heise.de/tp/features/Konfusion-in-der-Medienrepublik-Der-Ueberraschungseffekt-der-Youtuber-4432113.html?view=print
  19. Seefried, E.: ¬Die Gestaltbarkeit der Zukunft und ihre Grenzen : zur Geschichte der Zukunftsforschung (2015) 0.02
    0.021357413 = product of:
      0.06407224 = sum of:
        0.04998193 = weight(_text_:der in 4312) [ClassicSimilarity], result of:
          0.04998193 = score(doc=4312,freq=38.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.5378853 = fieldWeight in 4312, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4312)
        0.01409031 = product of:
          0.02818062 = sum of:
            0.02818062 = weight(_text_:22 in 4312) [ClassicSimilarity], result of:
              0.02818062 = score(doc=4312,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.19345059 = fieldWeight in 4312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4312)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Beitrag beleuchtet die Geschichte der Zukunftsforschung in der Bundesrepublik und in den westlichen Industriegesellschaften vom 19. Jahrhundert bis in die Gegenwart. Er charakterisiert die Vorläufer der modernen Zukunftsforschung am Beginn der europäischen "Hochmoderne" um 1900, stellt aber die Formierungs- und Transformationsphase der 1950er- bis frühen 1980er-Jahre in den Mittelpunkt. Zentrale Faktoren für die Konzeptionierung einer Meta-Disziplin Zukunftsforschung waren der Systemwettlauf des Kalten Krieges, welcher der Entwicklung von Methoden der Vorausschau und Planung Dynamik verlieh, und ein teilweise frappantes wissenschaftliches Vertrauen in diese neuen methodisch-theoretischen Zugänge und Techniken der Vorausschau - insbesondere die Kybernetik -, welche die Zukunft prognostizierbar und damit plan- und steuerbar zu machen schienen. Den Kontext bildeten eine gesellschaftliche Aufbruchstimmung und eine hohe politische Technik- und Planungsaffinität der 1960er-Jahre, welche das Verständnis der Zukunftsforschung bestärkten, dass der Mensch aus der Fülle der möglichen Zukünfte wählen und so die Zukunft geradezu frei gestalten könne. Dieses überzogene Machbarkeitsdenken betraf insbesondere die bundesdeutsche Zukunftsforschung. In den 1970er-Jahren wurden allerdings die Grenzen dieses Anspruchs deutlich. In der Folge pragmatisierte sich die Zukunftsforschung in methodischer Hinsicht. Nicht zuletzt trug dieser übersteigerte Machbarkeitsglaube der 1960er-Jahre dazu bei, dass die Zukunftsforschung in der Bundesrepublik lange wenig institutionalisiert war.
    Date
    22. 6.2018 13:47:33
  20. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.02
    0.0211896 = product of:
      0.0635688 = sum of:
        0.0410243 = weight(_text_:der in 1432) [ClassicSimilarity], result of:
          0.0410243 = score(doc=1432,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 1432, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1432)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 1432) [ClassicSimilarity], result of:
              0.04508899 = score(doc=1432,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 1432, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1432)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Schon zur Wende ins 20. Jahrhundert zweifelte der belgische Privatgelehrte Paul Otlet an der Zukunft des Buches und der Bibliothek. Statt dessen begann er damit, eine Dokumentation und Neuorganisation des Weltwissens anzulegen, und mittels eines Karteikartensystems (Répertoire Bibliographique Universel) zu vernetzen. Dieses Projekt eines flexiblen, abfrageorientierten Wissensbestandes in einem 'Hypermedium' (Otlet) besetzte jene technologische Leerstelle, die inzwischen eine die bibliothekarische Epoche aufsprengende neue Wissenskultur der digitalen Medialität produziert hat.
    Date
    22. 8.2016 15:58:46
    Theme
    Geschichte der Sacherschließung

Years

Languages

  • d 440
  • e 40
  • a 1
  • no 1
  • More… Less…