Search (425 results, page 2 of 22)

  • × type_ss:"el"
  • × year_i:[2010 TO 2020}
  1. Schultz, S.: ¬Die eine App für alles : Mobile Zukunft in China (2016) 0.02
    0.024696095 = product of:
      0.04939219 = sum of:
        0.018040843 = weight(_text_:der in 4313) [ClassicSimilarity], result of:
          0.018040843 = score(doc=4313,freq=2.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.19743896 = fieldWeight in 4313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4313)
        0.031351347 = product of:
          0.06270269 = sum of:
            0.06270269 = weight(_text_:22 in 4313) [ClassicSimilarity], result of:
              0.06270269 = score(doc=4313,freq=4.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.4377287 = fieldWeight in 4313, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4313)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Chat-Systeme werden zu Service-Plattformen für alles: Hunderte Millionen Chinesen organisieren bereits ihren Alltag über das Messenger-Programm einer Pekinger Firma. Facebook, Google & Co eifern dem neuen Konkurrenten hektisch nach. Chat war gestern. Die großen IT-Konzerne bauen ihre Messenger-Dienste zu Service-Plattformen aus. Ziel ist es, Apps von Unternehmen wie Uber oder der Hyatt-Hotelkette überflüssig zu machen und möglichst viele Aktivitäten von Verbrauchern im eigenen Datenuniversum zu bündeln. Vorreiter des neuen Multimilliardenmarkts ist das chinesische Unternehmen Tencent.
    Date
    22. 6.2018 14:22:02
  2. Freyberg, L.: ¬Die Lesbarkeit der Welt : Rezension zu 'The Concept of Information in Library and Information Science. A Field in Search of Its Boundaries: 8 Short Comments Concerning Information'. In: Cybernetics and Human Knowing. Vol. 22 (2015), 1, 57-80. Kurzartikel von Luciano Floridi, Søren Brier, Torkild Thellefsen, Martin Thellefsen, Bent Sørensen, Birger Hjørland, Brenda Dervin, Ken Herold, Per Hasle und Michael Buckland (2016) 0.02
    0.024138262 = product of:
      0.048276525 = sum of:
        0.03719215 = weight(_text_:der in 3335) [ClassicSimilarity], result of:
          0.03719215 = score(doc=3335,freq=34.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.40703082 = fieldWeight in 3335, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3335)
        0.011084375 = product of:
          0.02216875 = sum of:
            0.02216875 = weight(_text_:22 in 3335) [ClassicSimilarity], result of:
              0.02216875 = score(doc=3335,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.15476047 = fieldWeight in 3335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3335)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Es ist wieder an der Zeit den Begriff "Information" zu aktualisieren beziehungsweise einen Bericht zum Status Quo zu liefern. Information ist der zentrale Gegenstand der Informationswissenschaft und stellt einen der wichtigsten Forschungsgegenstände der Bibliotheks- und Informationswissenschaft dar. Erstaunlicherweise findet jedoch ein stetiger Diskurs, der mit der kritischen Auseinandersetzung und der damit verbundenen Aktualisierung von Konzepten in den Geisteswissensschaften vergleichbar ist, zumindest im deutschsprachigen Raum1 nicht konstant statt. Im Sinne einer theoretischen Grundlagenforschung und zur Erarbeitung einer gemeinsamen begrifflichen Matrix wäre dies aber sicherlich wünschenswert. Bereits im letzten Jahr erschienen in dem von Søren Brier (Siehe "The foundation of LIS in information science and semiotics"2 sowie "Semiotics in Information Science. An Interview with Søren Brier on the application of semiotic theories and the epistemological problem of a transdisciplinary Information Science"3) herausgegebenen Journal "Cybernetics and Human Knowing" acht lesenswerte Stellungnahmen von namhaften Philosophen beziehungsweise Bibliotheks- und Informationswissenschaftlern zum Begriff der Information. Unglücklicherweise ist das Journal "Cybernetics & Human Knowing" in Deutschland schwer zugänglich, da es sich nicht um ein Open-Access-Journal handelt und lediglich von acht deutschen Bibliotheken abonniert wird.4 Aufgrund der schlechten Verfügbarkeit scheint es sinnvoll hier eine ausführliche Besprechung dieser acht Kurzartikel anzubieten.
    Das Journal, das sich laut Zusatz zum Hauptsachtitel thematisch mit "second order cybernetics, autopoiesis and cyber-semiotics" beschäftigt, existiert seit 1992/93 als Druckausgabe. Seit 1998 (Jahrgang 5, Heft 1) wird es parallel kostenpflichtig elektronisch im Paket über den Verlag Imprint Academic in Exeter angeboten. Das Konzept Information wird dort aufgrund der Ausrichtung, die man als theoretischen Beitrag zu den Digital Humanities (avant la lettre) ansehen könnte, regelmäßig behandelt. Insbesondere die phänomenologisch und mathematisch fundierte Semiotik von Charles Sanders Peirce taucht in diesem Zusammenhang immer wieder auf. Dabei spielt stets die Verbindung zur Praxis, vor allem im Bereich Library- and Information Science (LIS), eine große Rolle, die man auch bei Brier selbst, der in seinem Hauptwerk "Cybersemiotics" die Peirceschen Zeichenkategorien unter anderem auf die bibliothekarische Tätigkeit des Indexierens anwendet,5 beobachten kann. Die Ausgabe 1/ 2015 der Zeitschrift fragt nun "What underlines Information?" und beinhaltet unter anderem Artikel zum Entwurf einer Philosophie der Information des Chinesen Wu Kun sowie zu Peirce und Spencer Brown. Die acht Kurzartikel zum Informationsbegriff in der Bibliotheks- und Informationswissenschaft wurden von den Thellefsen-Brüdern (Torkild und Martin) sowie Bent Sørensen, die auch selbst gemeinsam einen der Kommentare verfasst haben.
  3. Hensinger, P.: Trojanisches Pferd "Digitale Bildung" : Auf dem Weg zur Konditionierungsanstalt in einer Schule ohne Lehrer? (2017) 0.02
    0.024138262 = product of:
      0.048276525 = sum of:
        0.03719215 = weight(_text_:der in 5000) [ClassicSimilarity], result of:
          0.03719215 = score(doc=5000,freq=34.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.40703082 = fieldWeight in 5000, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5000)
        0.011084375 = product of:
          0.02216875 = sum of:
            0.02216875 = weight(_text_:22 in 5000) [ClassicSimilarity], result of:
              0.02216875 = score(doc=5000,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.15476047 = fieldWeight in 5000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5000)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Wir hatten schon viele Schulreformen, und nun wird von der Kultusministerkonferenz eine weitere angekün-digt, die "Digitale Bildung": Unterricht mit digitalen Medien wie Smartphone und Tablet-PC über WLAN.1Medien und Bildungspolitiker predigen Eltern, ihre Kinder seien in Schule und Beruf chancenlos, wenn sie nicht schon in der Grundschule Apps programmieren lernen.Die Hauptinitiative der Digitalisierung der Bildung kommt von der IT-Branche. Im Zwischenbericht der Platt-form "Digitalisierung in Bildung und Wissenschaft" steht, wer das Bundeswissenschaftsministerium berät - nämlich Akteure der IT-Wirtschaft: Vom Bitkom, der Gesellschaft für Informatik (GI) über Microsoft, SAP bis zur Telekom sind alle vertreten (BUNDESMINISTERIUM 2016:23). Nicht vertreten dagegen sind Kinderärzte, Päda-gogen, Lernpsychologen oder Neurowissenschaftler, die sich mit den Folgen der Nutzung von Bildschirm-medien bei Kindern und Jugendlichen beschäftigen. Die New York Times schlägt in einer Analyse Alarm: "How Google Took Over the Classroom" (13.05.2017).2 Mit ausgeklügelten Methoden, den Hype um digitale Medien nutzend, greift Google nach der Kontrolle des US-Bildungswesens, auch der Kontrolle über die Inhalte. Wer bei der Analyse und Bewertung dieser Entwicklung nur fragt "Nützen digitale Medien im Unterricht?", verengt den Blick, reduziert auf Methodik und Didaktik und schließt Gesamtzusammenhänge aus. Denn die digitalen Medien sind mehr als nur Unterrichts-Hilfsmittel. Diesen Tunnelblick weitet die IT-Unternehmerin Yvonne Hofstetter. Sie schreibt in ihrem Buch "Das Ende der Demokratie": "Mit der Digitalisierung verwandeln wir unser Leben, privat wie beruflich, in einen Riesencomputer. Alles wird gemessen, gespeichert, analysiert und prognostiziert, um es anschließend zu steuern und zu optimieren"(HOFSTETTER 2016:37). Grundlage dafür ist das Data-Mining - das Sammeln von Daten - für BigData Analysen. Die Haupt-Schürfwerkzeuge dazu sind dasSmartphone, der TabletPC und das WLAN-Netz.
    Content
    Vgl. auch: Häring, N. u. Hensinger, P.: "Digitale Bildung": Der abschüssige Weg zur Konditionierungsanstalt. Unter: http://norberthaering.de/de/27-german/news/1100-digitale-bildung [27.01.2019].
    Date
    22. 2.2019 11:45:19
    Issue
    Ein Vortrag zu den Bestrebungen von Google, Apple, Microsoft, Bertelsmann und der Telekom, die Bildung in die Hand zu bekommen. Und warum fast keiner diese Unterwanderung bemerkt..
  4. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.02
    0.023440987 = product of:
      0.046881974 = sum of:
        0.030255413 = weight(_text_:der in 2248) [ClassicSimilarity], result of:
          0.030255413 = score(doc=2248,freq=10.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.3311152 = fieldWeight in 2248, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.016626561 = product of:
          0.033253122 = sum of:
            0.033253122 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
              0.033253122 = score(doc=2248,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.23214069 = fieldWeight in 2248, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
  5. Stumpf, G.: "Kerngeschäft" Sacherschließung in neuer Sicht : was gezielte intellektuelle Arbeit und maschinelle Verfahren gemeinsam bewirken können (2015) 0.02
    0.02336968 = product of:
      0.04673936 = sum of:
        0.027341703 = weight(_text_:der in 1703) [ClassicSimilarity], result of:
          0.027341703 = score(doc=1703,freq=6.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.29922754 = fieldWeight in 1703, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1703)
        0.019397656 = product of:
          0.03879531 = sum of:
            0.03879531 = weight(_text_:22 in 1703) [ClassicSimilarity], result of:
              0.03879531 = score(doc=1703,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.2708308 = fieldWeight in 1703, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1703)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Als "Kerngeschäft" des bibliothekarischen Berufsbildes ist die Sacherschließung starken Veränderungen unterworfen; als Kern des Metadatenangebots ist ein intellektueller Input unverzichtbar, gerade weil mit maschinellen Verfahren sehr viel Mehrwert daraus generiert werden kann. In dem Vortrag wird versucht, aus allgemeiner Perspektive den funktionellen Mehrwert der Sacherschließung zu beleuchten. Das Zusammenwirken der intellektuellen Erschließung und verschiedener Formen automatischer Metadatenerzeugung und -vermehrung muss neu justiert und standardisiert werden. Besondere Bedeutung haben Normdaten mit ihrem Potenzial für die Linked-Data-Welt; zugleich muss aber auch die Datenbasis für die durch Suchmaschinentechnologie geprägten Rechercheumgebungen quantitativ verbreitert und qualitativ aufgewertet werden.
    Content
    Es handelt sich um den leicht überarbeiteten Text eines Vortrags bei der VDB-Fortbildungsveranstaltung "Wandel als Konstante: neue Aufgaben und Herausforderungen für sozialwissenschaftliche Bibliotheken" am 22./23. Januar 2015 in Berlin.
  6. Mühlbauer, P.: Upload in Computer klappt . (2018) 0.02
    0.02336968 = product of:
      0.04673936 = sum of:
        0.027341703 = weight(_text_:der in 4113) [ClassicSimilarity], result of:
          0.027341703 = score(doc=4113,freq=6.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.29922754 = fieldWeight in 4113, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4113)
        0.019397656 = product of:
          0.03879531 = sum of:
            0.03879531 = weight(_text_:22 in 4113) [ClassicSimilarity], result of:
              0.03879531 = score(doc=4113,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.2708308 = fieldWeight in 4113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4113)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Den drei an der Technischen Universität in Wien forschenden Informatikern Mathias Lechner, Radu Grosu und Ramin Hasani ist es gelungen, das Nervensystem des Fadenwurm Caenorhabditis elegans (C. elegans) als Software in einen Computer zu übertragen und nachzuweisen, dass der "hochgeladene" virtuelle Wurm auf Reize genau so reagiert wie ein echter Nematodenwurm auf echte Reize in der Realität. Dafür ließen sie ihn eine Aufgabe bewältigen, die Hasani zufolge dem Balancieren eines Stabes ähnelt.
    Date
    12. 2.2018 15:22:19
  7. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.02
    0.022873737 = product of:
      0.045747474 = sum of:
        0.031892005 = weight(_text_:der in 3780) [ClassicSimilarity], result of:
          0.031892005 = score(doc=3780,freq=16.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.34902605 = fieldWeight in 3780, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.013855469 = product of:
          0.027710939 = sum of:
            0.027710939 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.027710939 = score(doc=3780,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
  8. Firnkes, M.: Schöne neue Welt : der Content der Zukunft wird von Algorithmen bestimmt (2015) 0.02
    0.021843914 = product of:
      0.043687828 = sum of:
        0.027061265 = weight(_text_:der in 2118) [ClassicSimilarity], result of:
          0.027061265 = score(doc=2118,freq=8.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.29615843 = fieldWeight in 2118, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2118)
        0.016626561 = product of:
          0.033253122 = sum of:
            0.033253122 = weight(_text_:22 in 2118) [ClassicSimilarity], result of:
              0.033253122 = score(doc=2118,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.23214069 = fieldWeight in 2118, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2118)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Während das Internet vor noch nicht allzu langer Zeit hauptsächlich ein weiteres Informationsmedium darstellte, so explodieren die technischen Möglichkeiten derzeit förmlich. Diese stärken nicht nur den gegenseitigen Austausch der Nutzer. Sie alle vermessen unsere täglichen Gewohnheiten - auf sehr vielfältige Art und Weise. Die Mechanismen, die das gekaufte Web ausmachen, werden hierdurch komplexer. In den meisten neuen Technologien und Anwendungen verbergen sich Wege, die Verbraucherverführung zu perfektionieren. Nicht wenige davon dürften zudem für die Politik und andere Interessensverbände von Bedeutung sein, als alternativer Kanal, um Wählergruppen und Unterstützer zu mobilisieren. Das nachfolgende Kapitel nennt die wichtigsten Trends der nächsten Jahre, mitsamt ihren möglichen manipulativen Auswirkungen. Nur wenn wir beobachten, von wem die Zukunftstechniken wie genutzt werden, können wir kommerziellen Auswüchsen vorbeugen.
    Date
    5. 7.2015 22:02:31
  9. Gillitzer, B.: Yewno (2017) 0.02
    0.021166017 = product of:
      0.042332035 = sum of:
        0.031247659 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.031247659 = score(doc=3447,freq=24.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.011084375 = product of:
          0.02216875 = sum of:
            0.02216875 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.02216875 = score(doc=3447,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  10. Bundesregierung: Digitale Bildung voranbringen (2016) 0.02
    0.020635152 = product of:
      0.041270304 = sum of:
        0.031571478 = weight(_text_:der in 3451) [ClassicSimilarity], result of:
          0.031571478 = score(doc=3451,freq=32.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.34551817 = fieldWeight in 3451, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3451)
        0.009698828 = product of:
          0.019397656 = sum of:
            0.019397656 = weight(_text_:22 in 3451) [ClassicSimilarity], result of:
              0.019397656 = score(doc=3451,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.1354154 = fieldWeight in 3451, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=3451)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Webseite zum Nationalen IT-Bildungsgipfel am 16./17.11.2016 in Saarbrücken: ""Lernen und Handeln in der digitalen Welt prägen unseren Alltag", so Bundeskanzlerin Merkel auf dem IT-Gipfel in Saarbrücken. Deshalb müsse digitale Bildung auch allen zugänglich sein. Sie appellierte an Schüler und Lehrer, neuen Entwicklungen offen und neugierig gegenüber zu stehen."
    Content
    Vgl.dazu die Presseinformation der Deutschen Mathematiker Vereinigung: "*Inhalte statt Geräte* Zum Nationalen IT-Gipfel, der am 16. und 17. 11. 2016 in Saarbrücken stattfindet, appelliert die Deutsche Mathematiker-Vereinigung: Nicht das bloße Verwenden digitaler Medien, sondern das Verständnis ihrer Grundlagen schafft die Voraussetzung für einen souveränen digitalen Wandel. Ohne die richtigen Lerninhalte bleiben Soft- und Hardwarelieferungen eine Scheinlösung./
    Berlin, 15. November 2016. Der Vorstand der Deutschen Mathematiker-Vereinigung fasst seine Position zur "Bildungsoffensive zur digitalen Wissensgesellschaft" wie folgt zusammen. Um die technischen, wirtschaftlichen und gesellschaftlichen Herausforderungen der Digitalisierung zu meistern, muss auf allen Ebenen der Bildung gehandelt werden. Wir begrüßen den Willen der deutschen Bildungspolitik, ihren Handlungsspielraum auf diesem Feld zu nutzen. Mit ihrer gegenwärtigen Schwerpunktsetzung schafft die "Bildungsoffensive zur digitalen Wissensgesellschaft" aus unserer Sicht allerdings eine Scheinlösung und könnte ihr Ziel verfehlen. Deshalb plädieren wir dafür, den Schwerpunkt der Debatte und der "Offensive" zu verschieben. Ziel sollte sein, grundlegende Kompetenzen zu vermitteln, die Lernende zu einem mündigen Umgang mit digitalen Neuerungen befähigen. Wir fordern: Inhalte statt Geräte!
    Tablets und soziale Netzwerke verwenden zu können, heißt noch lange nicht, den digitalen Wandel zu meistern. Vollständig digital kompetent ist und bleibt auf lange Sicht nur, wer die theoretischen Grundlagen versteht. Diese Grundlagen entstehen nicht als Nebeneffekt beim Lernen mit digitalen Medien, sondern müssen separat und fokussiert im Unterricht vermittelt werden. Digitale Medien können und sollten hierzu nur ergänzend eingesetzt werden. Nach Erfahrung der überwältigenden Mehrheit der Mathematikerinnen und Mathematiker weltweit sind Tafel, Papier und das direkte Unterrichtsgespräch meist viel besser geeignet. Auch dürfen diese Grundlagen nicht allein Hochbegabten oder digital Affinen vorbehalten bleiben, sondern müssen Teil der Allgemeinbildung werden. Ohne die vorherige Vermittlung dieser Grundlagen ist die Belieferung von Bildungseinrichtungen mit Soft- und Hardware hingegen eine Scheinlösung. Bleiben die richtigen Lerninhalte aus, hemmt sie sogar den Anstieg der Digitalisierungskompetenz in Deutschland. Stattdessen wird die Lernzeit der Lernenden überfrachtet, und oberflächlich sinnvolle Inhalte verdrängen den Erwerb von Grundlagen.
    Wir halten es daher für fehlgeleitet, an erster Stelle in digitale Medien zu investieren. Reduziert man Digitalisierungskompetenz auf den Umgang mit digitalen Medien, so glaubt man irrig, Digitalisierungskompetenz entstehe erschöpfend im Lernen mithilfe digitaler Medien. Das Gegenteil ist aber richtig: Erst die auf Grundlagen sorgfältig aufbauende Digitalkompetenz kann das enorme Potenzial moderner Hard- und Software voll nutzen! Digitale Medien sollten nicht um ihrer selbst willen und auf Kosten der Zukunft Lernender gefördert werden. Wir fordern über die föderalen Hemmnisse hinweg, die allgemeinen Rahmenbedingungen für die Bildung zu verbessern. Wir fordern den Unterricht in den Fächern Mathematik und Informatik zu stärken und nicht weiter auszudünnen, damit hier die grundlegende und langfristige Digitalisierungskompetenz vermittelt werden kann. Wir fordern, die Lehrerbildung in diesen Bereichen substanziell zu verbessern. Wir fordern, analytisches Denken gezielt zu lehren und diesem Anliegen Priorität zu geben." (https://dmv.mathematik.de/index.php/aktuell-presse/presseinformationen)
    Date
    22. 2.2017 17:14:47
  11. Lezius, W.: Morphy - Morphologie und Tagging für das Deutsche (2013) 0.02
    0.020104796 = product of:
      0.04020959 = sum of:
        0.018040843 = weight(_text_:der in 1490) [ClassicSimilarity], result of:
          0.018040843 = score(doc=1490,freq=2.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.19743896 = fieldWeight in 1490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1490)
        0.02216875 = product of:
          0.0443375 = sum of:
            0.0443375 = weight(_text_:22 in 1490) [ClassicSimilarity], result of:
              0.0443375 = score(doc=1490,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.30952093 = fieldWeight in 1490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1490)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Morphy ist ein frei verfügbares Softwarepaket für die morphologische Analyse und Synthese und die kontextsensitive Wortartenbestimmung des Deutschen. Die Verwendung der Software unterliegt keinen Beschränkungen. Da die Weiterentwicklung eingestellt worden ist, verwenden Sie Morphy as is, d.h. auf eigenes Risiko, ohne jegliche Haftung und Gewährleistung und vor allem ohne Support. Morphy ist nur für die Windows-Plattform verfügbar und nur auf Standalone-PCs lauffähig.
    Date
    22. 3.2015 9:30:24
  12. Rötzer, F.: Psychologen für die Künstliche Intelligenz (2018) 0.02
    0.020104796 = product of:
      0.04020959 = sum of:
        0.018040843 = weight(_text_:der in 4427) [ClassicSimilarity], result of:
          0.018040843 = score(doc=4427,freq=2.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.19743896 = fieldWeight in 4427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4427)
        0.02216875 = product of:
          0.0443375 = sum of:
            0.0443375 = weight(_text_:22 in 4427) [ClassicSimilarity], result of:
              0.0443375 = score(doc=4427,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.30952093 = fieldWeight in 4427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4427)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.
    Date
    22. 1.2018 11:08:27
  13. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.02
    0.019804727 = product of:
      0.039609455 = sum of:
        0.028525079 = weight(_text_:der in 4217) [ClassicSimilarity], result of:
          0.028525079 = score(doc=4217,freq=20.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.3121784 = fieldWeight in 4217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
        0.011084375 = product of:
          0.02216875 = sum of:
            0.02216875 = weight(_text_:22 in 4217) [ClassicSimilarity], result of:
              0.02216875 = score(doc=4217,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.15476047 = fieldWeight in 4217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4217)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
    Date
    22. 1.2018 11:32:44
  14. Laßmann, G.: Asimovs Robotergesetze : was leisten sie wirklich? (2017) 0.02
    0.018203262 = product of:
      0.036406524 = sum of:
        0.022551054 = weight(_text_:der in 4067) [ClassicSimilarity], result of:
          0.022551054 = score(doc=4067,freq=8.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.2467987 = fieldWeight in 4067, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4067)
        0.013855469 = product of:
          0.027710939 = sum of:
            0.027710939 = weight(_text_:22 in 4067) [ClassicSimilarity], result of:
              0.027710939 = score(doc=4067,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.19345059 = fieldWeight in 4067, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4067)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In Simulationen treten bei Robotern innere Zustände immer dann auf, wenn Katastrophen wie der eigene Totalausfall drohen. Die bekannten Robotergesetze von Isaac Asimov sind schon mehr als 75 Jahre alt. Systematisch untersucht wurden sie bislang nicht, obgleich durch die technische Entwicklung in der Computertechnik das Erstellen von Regeln für Roboter immer drängender wird: Autonome Fahrzeug fahren auf unseren Straßen, das EU-Parlament diskutiert Roboterrechte und nicht nur der Deutsche Ethikrat befasst sich mit Pflegerobotern. Gunter Laßmann hat in seinem eBook Asimovs Robotergesetze philosophisch und technisch untersucht: Asimovs Robotergesetze. Was leisten sie wirklich?" Er erörtert, was ein Roboter ist und wie ein solcher Roboter nach dem heutigen Stand der Technik "denken" würde. Diskutiert wird, inwieweit Roboter individuell sein könnten und wer die Verantwortung für den Roboter trägt. Alle drei Robotergesetze werden erstmals simuliert, was teilweise zu unerwarteten Ergebnissen führt. Die Roboter werden durch Hinzunahme von Lernen weiterentwickelt, es werden die Unterschiede zwischen regelbasiertem Lernen und Deep Learning dargestellt und am aktuellen Beispiel erläutert.
    Date
    21. 1.2018 19:02:22
  15. Taglinger, H.: Ausgevogelt, jetzt wird es ernst (2018) 0.02
    0.018203262 = product of:
      0.036406524 = sum of:
        0.022551054 = weight(_text_:der in 4281) [ClassicSimilarity], result of:
          0.022551054 = score(doc=4281,freq=8.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.2467987 = fieldWeight in 4281, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
        0.013855469 = product of:
          0.027710939 = sum of:
            0.027710939 = weight(_text_:22 in 4281) [ClassicSimilarity], result of:
              0.027710939 = score(doc=4281,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.19345059 = fieldWeight in 4281, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4281)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Das kennt der Sammler: Da fängt man an, sich für eine Sache zu interessieren und alles darüber zusammenzutragen, was man kriegen kann, und dann hat man sich verhoben, weil man die Sache ein wenig zu groß angegangen ist. So ist es zum Beispiel blöd, in der Wüste zu sitzen und sich zu überlegen, alle Kiefernnadeln weltweit zusammentragen zu wollen, weil das ja von dort aus gesehen nicht so viele sein können. Und dann beginnt man nach einiger Zeit diese Website über die Kiefernwälder weltweit zu finden und sich am Kopf zu kratzen. Also beschließt man nur noch "herausragende Kiefernnadeln" zu sammeln, was immer das sein mag. Aber auf jeden Fall hat man es satt, jeden Tag mehrere Tausend Säcke Bioabfall von schwitzenden Postboten vor die Tore gestellt zu bekommen. So ähnlich muss es der Library of Congress gehen, wenn sie im Dezember 2017 genau das beschließt. Also, nicht wirklich das Sammeln von Kiefernnadeln einzustellen. Vielmehr handelt es sich ja um die umfangreichste Bibliothek der Welt, die alle möglichen Inhalte in Büchern, auf Tonbändern und eben auch Tweets sammelt. Das ist ihr jetzt zu viel geworden. Kann man verstehen, kommen wir ja schon mit dem Lesen von Tweets eines kleinhändigen Präsidenten kaum noch nach, dann muss es da draußen ja auch noch eine ganze Menge anderes Zeugs geben. Die armen Bibliothekare in den dortigen Kellern weinen ja schon, wenn sie wieder tonnenweise kommentierte Retweets und diesen Mist auf den Tisch bekamen, alleine das Ausdrucken von bis zu 280 Zeichen und Bildern dauert ja ewig ... ganz zu schweigen vom Einsortieren.
    Date
    22. 1.2018 11:38:55
  16. Knoll, A.: Kompetenzprofil von Information Professionals in Unternehmen (2016) 0.02
    0.017880883 = product of:
      0.035761766 = sum of:
        0.019135205 = weight(_text_:der in 3069) [ClassicSimilarity], result of:
          0.019135205 = score(doc=3069,freq=4.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.20941564 = fieldWeight in 3069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3069)
        0.016626561 = product of:
          0.033253122 = sum of:
            0.033253122 = weight(_text_:22 in 3069) [ClassicSimilarity], result of:
              0.033253122 = score(doc=3069,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.23214069 = fieldWeight in 3069, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3069)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der vorliegenden Arbeit eine Begriffsbestimmung unternommen. Methode - Mit Hilfe dreier Methoden - einer Auswertung von relevanter Fachliteratur, der Untersuchung von einschlägigen Stellenausschreibungen und dem Führen von Experteninterviews - wird ein Kompetenzprofil für Information Professionals erstellt. Ergebnisse - Die 16 wichtigsten Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen sind IT-Kenntnisse, Sprachkenntnisse, Quellenkenntnisse, Recherchekenntnisse, Projektmanagement, Darstellungskompetenz, Problemlösungskompetenz, selbständiges Arbeiten, Kommunikationsfähigkeit, Teamfähigkeit, Servicementalität, Interkulturelle Kompetenz, Analytische Fähigkeiten, Eigenmarketing, Veränderungsbereitschaft und Stressresistenz. Schlussfolgerung - Die Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst. Ein Kompetenzrad kann als Visualisierung dienen.
    Date
    28. 7.2016 16:22:54
  17. Kluge, A.; Singer, W.: ¬Das Gehirn braucht so viel Strom wie die Glühbirne (2012) 0.02
    0.017880883 = product of:
      0.035761766 = sum of:
        0.019135205 = weight(_text_:der in 4167) [ClassicSimilarity], result of:
          0.019135205 = score(doc=4167,freq=4.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.20941564 = fieldWeight in 4167, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4167)
        0.016626561 = product of:
          0.033253122 = sum of:
            0.033253122 = weight(_text_:22 in 4167) [ClassicSimilarity], result of:
              0.033253122 = score(doc=4167,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.23214069 = fieldWeight in 4167, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4167)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Mit 30 Watt erzeugt es Welten, von denen die schnellsten Computer nur träumen können. Das Gehirn besteht aus einfachen Elementen und produziert daraus Myriaden von Verknüpfungen. Dieses Wunderwerk der Selbstregulation ist bis heute nicht abschließend entschlüsselt. Wolf Singer, Neurophysiologe am Max-Planck-Institut für Hirnforschung in Frankfurt am Main, hat sein Leben der Erforschung dieses einzigartigen Organs gewidmet. Gemeinsam mit dem Denker Alexander Kluge kommt er ins Philosophieren.
    Date
    22. 2.2018 18:10:21
  18. Roth, G.; Gerhardt, V.; Flaßpöhler, S.: Wie flexibel ist mein Ich? : Dialog (2012) 0.02
    0.017591696 = product of:
      0.035183392 = sum of:
        0.015785739 = weight(_text_:der in 955) [ClassicSimilarity], result of:
          0.015785739 = score(doc=955,freq=2.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.17275909 = fieldWeight in 955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=955)
        0.019397656 = product of:
          0.03879531 = sum of:
            0.03879531 = weight(_text_:22 in 955) [ClassicSimilarity], result of:
              0.03879531 = score(doc=955,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.2708308 = fieldWeight in 955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=955)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Dialog mit Volker Gerhardt aus dem Jahr 2012 vertritt Roth die Auffassung, dass wir innerlich weit weniger frei sind, als wir glauben. Ein Gespräch über die Möglichkeit, sein Leben dennoch selbst zu gestalten. Ein Kantianer und ein Hirnforscher: Ob das gut gehen kann? Es folgt ein angeregtes, fast zweistündiges Philosophieren über die Kraft des Unbewussten, frühkindliche Prägungen und die Wurzeln der menschlichen Freiheit. Nicht die Theorie, sondern die Praxis des Lebens bestimmt die Diskussion, so kommt schnell auch Persönliches zur Sprache. Insbesondere was den Umgang mit charakterlichen Schwächen betrifft, herrscht große Einigkeit zwischen dem Geistes- und dem Naturwissenschaftler.
    Date
    7. 5.2023 11:14:22
  19. Laaff, M.: Googles genialer Urahn (2011) 0.02
    0.01698275 = product of:
      0.0339655 = sum of:
        0.027037764 = weight(_text_:der in 4610) [ClassicSimilarity], result of:
          0.027037764 = score(doc=4610,freq=46.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.29590124 = fieldWeight in 4610, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4610)
        0.0069277347 = product of:
          0.013855469 = sum of:
            0.013855469 = weight(_text_:22 in 4610) [ClassicSimilarity], result of:
              0.013855469 = score(doc=4610,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.09672529 = fieldWeight in 4610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4610)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Er plante ein mechanisches Gehirn und kabellose Kommunikation: Der belgische Bibliothekar Paul Otlet entwarf Anfang des 20. Jahrhunderts die erste Suchmaschine der Welt - lange vor Computern und Internet. Warum gerieten seine revolutionären Ideen in Vergessenheit?
    Content
    "Die erste Suchmaschine der Welt ist aus Holz und Papier gebaut. Mannshohe, dunkelbraune Schränke reihen sich aneinander, darin Zettelkästen mit Karteikarten. "Sechzehn Millionen Karteikarten", sagt Jaques Gillen und legt die Hand auf den Griff eines Schrankes. Gillen ist Archivar im Mundaneum - der Institution, die diesen gigantischen Katalog in den zwanziger Jahren des vergangenen Jahrhunderts betrieb. Anfragen gingen per Brief oder Telegramm in Brüssel ein, bis zu 1500 im Jahr. Antworten wurden per Hand herausgesucht, das konnte Wochen dauern. Ein Papier-Google, entwickelt Jahrzehnte vor dem Internet, ohne Computer. Erfinder des Mundaneums war der belgische Bibliothekar Paul Otlet. Der gelernte Jurist aus bürgerlichem Hause wollte das Wissen der Welt kartografieren und in Holzschränken aufbewahren. Seine Vision: Das Mundaneum sollte alle Bücher erfassen, die jemals erschienen sind - und sie über ein eigens entwickeltes Archivsystem miteinander verbinden. Archivar Gillen fischt eine Karteikarte aus einem Kasten. Aus dem Zahlenwirrwarr darauf kann er dutzende Informationen über das Buch, auf das verwiesen wird, ablesen. Mit seinem Archivsystem, darin sind sich viele Forscher heute einig, hat Otlet praktisch schon um die Jahrhundertwende den Hypertext erfunden - das Netz von Verknüpfungen, die uns heute durch das Internet navigieren. "Man könnte Otlet als einen Vordenker des Internets bezeichnen", sagt Gillen und steckt die Karteikarte zurück.
    Karteikästen, Telefone, Multimedia-Möbel 1934 entwickelte Otlet die Idee eines weltweiten Wissens-"Netzes". Er versuchte, kaum dass Radio und Fernsehen erfunden waren, Multimedia-Konzepte zu entwickeln, um die Kooperationsmöglichkeiten für Forscher zu verbessern. Otlet zerbrach sich den Kopf darüber, wie Wissen über große Distanzen zugänglich gemacht werden kann. Er entwickelte Multimedia-Arbeitsmöbel, die mit Karteikästen, Telefonen und anderen Features das versuchten, was heute an jedem Rechner möglich ist. Auch ohne die Hilfe elektronischer Datenverarbeitung entwickelte er Ideen, deren Umsetzung wir heute unter Begriffen wie Web 2.0 oder Wikipedia kennen. Trotzdem sind sein Name und seine Arbeit heute weitgehend in Vergessenheit geraten. Als Vordenker von Hypertext und Internet gelten die US-Amerikaner Vannevar Bush, Ted Nelson und Douglas Engelbart. Die Überbleibsel der Mundaneum-Sammlung vermoderten jahrzehntelang auf halb verfallenen Dachböden.
    Praktischere Medien sollen Bücher ersetzen Dabei was das Mundaneum im frühen 20. Jahrhundert zunächst eine schillernde Erfolgsgeschichte. An dem Projekt hatten Otlet und sein Mitstreiter, der spätere Friedensnobelpreisträger Henri La Fontaine, schon seit 1895 gearbeitet. 1920 öffnete das Mundaneum in einem Prunkbau im Herzen von Brüssel seine Türen - eine Mischung aus Besuchermuseum und Gelehrtentreff, mit einem gigantischen Wissenskatalog und Archiv. Darin wurden nicht nur Bücher erfasst, sondern auch zahllose Zeitungen, Poster, über 200.000 Postkarten sowie Ausstellungsstücke, von Flugzeugen bis zu Telefonen. Riesige Materialmengen, an denen sich das Projekt schon bald zu verschlucken drohte. Doch Otlet und seine Mitstreiter hatten eine Mission: Sie waren davon überzeugt, dass die globale Verbreitung von Wissen den Frieden fördern könne. Auch darum gab es einen engen Austausch mit anderen Forschungseinrichtungen im Ausland. Parallel zu dieser Sammelwut arbeitete Otlet an neuen Ideen für das papierlose Verbreiten von Wissen. Bücher waren für ihn nicht mehr als "Container für Ideen", die durch praktischere Medien ersetzt werden könnten. Durch Grafiken und Schaubilder zum Beispiel, von denen er selbst zahllose anfertigte. Platzsparend, weil man sie auf Mikrofilm bannen konnte. International verständlich. Mit Ton und Film wollte er Informationen schneller, einfacher und weiter transportieren.
    "Ein universelles Netzwerk, das die Verbreitung von Wissen erlaubt." In seinem 400 Seiten dicken Buch "Traité de documentation" sammelte er all diese Ideen. Er skizzierte eine wissenschaftliche Konferenz, die per Telefon übertragen werden sollte und spann die Idee weiter - warum nicht auch mit Bildübertragung? "Radiotelefotografie"! Grammophone sollten gesprochene Informationen archivierbar und reproduzierbar machen. "Kürzlich haben wir einen Text aus dem Jahr 1907 gefunden, in dem er von einem mobilen Telefon spricht", sagt der Archivar Gillen, während er behutsam die dünnen Original-Skizzen Otlets von all diesen Visionen wieder einpackt. Besonders das neue Medium Radio faszinierte Otlet - ermöglichte es doch, Informationen kabellos über weite Strecken zu versenden und dabei beliebig viele Empfänger zu erreichen. Für ihn ein kleiner Schritt zu seinem Traum, den er 1934 formulierte: einem "universellen Netzwerk, das die Verbreitung von Wissen ohne Beschränkung erlaubt." Jeder Mensch würde "im Sessel" auf den aktuellen Stand des Weltwissens zugreifen können, "applaudieren, Ovationen geben und im Chor singen." Alle weltweiten Entwicklungen würden aufgezeichnet werden, sobald sie entstünden: "So entsteht ein bewegliches Bild der Welt - ihr Gedächtnis, ihr wahres Duplikat." Ein "mechanisches, kollektives Gehirn".
    Die Regierung strich 1934 die Subventionen, das Mundaneum schloss Parallel zu diesen visionären Gedanken erlebte Otlets Mundaneum einen herben Rückschlag. Es musste 1934 schließen, nachdem seine Geldgeber aus der belgischen Regierung das Interesse an dem Projekt verloren hatten. Als 1940 die Nazis in Brüssel einmarschierten, entfernten sie die Sammlung aus dem zentralen "Palais Mondial", um dort Nazi-Kunst auszustellen. Otlets Vision vom Frieden durch Wissen war gescheitert, er starb 1944 verarmt und verbittert. Erst 1968 entdeckte der amerikanische Forscher W. Boyd Rayward Teile der Sammlung wieder, begann zu forschen und engagierte sich so lange, bis das Mundaneum 1998 wiedereröffnet wurde. Ein paar Nummern kleiner und im Provinzstädtchen Mons, etwa 30 Kilometer von Brüssel entfernt. Dort sortieren Archivar Gillen und seine Kollegen bis heute die Masse von Dokumenten. Sechs Kilometer Archivmaterial. Über 60 Jahre nach seinem Tod sind viele Ideen Otlets Wirklichkeit geworden. Und Forscher wie Netzexperten interessieren sich für seine Überlegungen zum "mechanischen Gehirn". Seine Vorstellung vom dynamischen Weltwissen, das ständig ergänzt werden muss und an dem kollektiv gearbeitet wird, erinnert stark an das Konzept der Internet-Enzyklopädie Wikipedia.
    Der Traum vom dynamischen, ständig wachsenden Wissensnetz Auch, weil Otlet bereits darüber nachdachte, wie in seinem vernetzten Wissenskatalog Anmerkungen einfließen könnten, die Fehler korrigieren oder Widerspruch abbilden. Vor dieser Analogie warnt jedoch Charles van den Heuvel von der Königlichen Niederländischen Akademie der Künste und Wissenschaften: Seiner Interpretation zufolge schwebte Otlet ein System vor, in dem Wissen hierarchisch geordnet ist: Nur eine kleine Gruppe von Wissenschaftlern sollte an der Einordnung von Wissen arbeiten; Bearbeitungen und Anmerkungen sollten, anders etwa als bei der Wikipedia, nicht mit der Information verschmelzen, sondern sie lediglich ergänzen. Das Netz, das Otlet sich ausmalte, ging weit über das World Wide Web mit seiner Hypertext-Struktur hinaus. Otlet wollte nicht nur Informationen miteinander verbunden werden - die Links sollten noch zusätzlich mit Bedeutung aufgeladen werden. Viele Experten sind sich einig, dass diese Idee von Otlet viele Parallelen zu dem Konzept des "semantischen Netz" aufweist. Dessen Ziel ist es, die Bedeutung von Informationen für Rechner verwertbar zu machen - so dass Informationen von ihnen interpretiert werden und maschinell weiterverarbeitet werden können. Projekte, die sich an einer Verwirklichung des semantischen Netzes versuchen, könnten von einem Blick auf Otlets Konzepte profitieren, so van den Heuvel, von dessen Überlegungen zu Hierarchie und Zentralisierung in dieser Frage. Im Mundaneum in Mons arbeitet man derzeit daran, Otlets Arbeiten zu digitalisieren, um sie ins Netz zu stellen. Das dürfte zwar noch ziemlich lange dauern, warnt Archivar Gillen. Aber wenn es soweit ist, wird sich endlich Otlets Vision erfüllen: Seine Sammlung des Wissens wird der Welt zugänglich sein. Papierlos, für jeden abrufbar."
    Date
    24.10.2008 14:19:22
    Theme
    Geschichte der Kataloge
  20. Bünte, O.: Bundesdatenschutzbeauftragte bezweifelt Facebooks Datenschutzversprechen (2018) 0.02
    0.016692627 = product of:
      0.033385254 = sum of:
        0.019529786 = weight(_text_:der in 4180) [ClassicSimilarity], result of:
          0.019529786 = score(doc=4180,freq=6.0), product of:
            0.091374286 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04090592 = queryNorm
            0.21373394 = fieldWeight in 4180, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4180)
        0.013855469 = product of:
          0.027710939 = sum of:
            0.027710939 = weight(_text_:22 in 4180) [ClassicSimilarity], result of:
              0.027710939 = score(doc=4180,freq=2.0), product of:
                0.14324556 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04090592 = queryNorm
                0.19345059 = fieldWeight in 4180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4180)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die Bundesdatenschutzbeauftrage Andrea Voßhoff hat ihre Zweifel geäußert, ob der Datenschutz bei Facebook künftig verlässlich eingehalten wird. Sie selbst nutzt das soziale Netzwerk nicht mehr.
    Content
    "Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. Die Bundesdatenschutzbeauftragte Andrea Voßhoff bezweifelt die Ankündigung von mehr Datenschutz durch Facebook-Gründer Mark Zuckerberg. "Das Geschäftsprinzip von Facebook ist ja gerade, Daten zu generieren und sie gewinnbringend zu vermarkten. So gesehen würde ich jetzt nicht unbedingt behaupten wollen, dass ich ihm das per se glaube, aber er kann es ja auch unter Beweis stellen", sagte die CDU-Politikerin gegenüber der Deutschen Presse-Agentur. "Aber die Zweifel bleiben insbesondere in Anbetracht eines solchen dimensional gigantischen Vorwurfs." Vgl.: http://www.heise.de/-4002008.
    Date
    23. 3.2018 13:41:22
    Footnote
    Vgl. zum Hintergrund auch: https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election; https://www.nytimes.com/2018/03/18/us/cambridge-analytica-facebook-privacy-data.html; http://www.latimes.com/business/la-fi-tn-facebook-cambridge-analytica-sued-20180321-story.html; https://www.tagesschau.de/wirtschaft/facebook-cambridge-analytica-103.html; http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html; http://www.spiegel.de/netzwelt/netzpolitik/cambridge-analytica-facebook-sieht-sich-im-datenskandal-als-opfer-a-1199095.html; https://www.heise.de/newsticker/meldung/Datenskandal-um-Cambridge-Analytica-Facebook-sieht-sich-als-Opfer-3999922.html.

Authors

Languages

  • d 371
  • e 47
  • a 1
  • no 1
  • More… Less…

Types

  • a 287
  • m 7
  • r 7
  • n 5
  • x 5
  • s 4
  • p 2
  • b 1
  • i 1
  • l 1
  • More… Less…