Search (510 results, page 1 of 26)

  • × type_ss:"a"
  • × type_ss:"el"
  1. Schleim, S.: Homo Deus : Gehirn-Upload, Unsterblichkeit, Künstliche Intelligenz (2017) 0.05
    0.053135723 = product of:
      0.15940717 = sum of:
        0.14034186 = weight(_text_:sprachen in 3571) [ClassicSimilarity], result of:
          0.14034186 = score(doc=3571,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5315063 = fieldWeight in 3571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=3571)
        0.019065307 = weight(_text_:und in 3571) [ClassicSimilarity], result of:
          0.019065307 = score(doc=3571,freq=2.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.19590102 = fieldWeight in 3571, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3571)
      0.33333334 = coord(2/6)
    
    Abstract
    Auf Vorschlag eines Kollegen aus der Anatomie will ich ein paar Gedanken über den Transhumanismus zur Diskussion stellen. Dieser Kollege hatte gerade das neue Buch des israelischen Geschichtsprofessors Yuval Noah Harari gelesen: "Homo Deus: Eine Geschichte von Morgen". Dieses erschien bereits 2015 auf Hebräisch, ist inzwischen in acht Sprachen übersetzt und in Deutschland gerade ein Bestseller.
  2. dpa: Europeana gestartet : Europa eröffnet virtuelle Bibliothek (2008) 0.05
    0.0492925 = product of:
      0.1478775 = sum of:
        0.124045864 = weight(_text_:sprachen in 2408) [ClassicSimilarity], result of:
          0.124045864 = score(doc=2408,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.46978965 = fieldWeight in 2408, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2408)
        0.023831634 = weight(_text_:und in 2408) [ClassicSimilarity], result of:
          0.023831634 = score(doc=2408,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24487628 = fieldWeight in 2408, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2408)
      0.33333334 = coord(2/6)
    
    Content
    "Die Europäische Union hat zum ersten Mal eine gemeinsame digitale Bibliothek. Auf dem Internetportal www.europeana.eu stehen seit Donnerstag fast drei Millionen Dokumente, Bücher, Gemälde,Filme und Fotografien aus europäischen Sammlungen zur Verfügung, teilte die EU-Kommission mit. Bereits in den ersten Stunden nach der Freischaltung besuchten mehr als zehn Millionen Internetnutzer die Seite, die vorübergehend zusammenbrach. Die Zahl der Server wurde daraufhin von drei auf sechs verdoppelt. "Wir hätten uns in unseren kühnsten Träumen nicht vorstellen können, dass es einen solchen Ansturm auf Europeana gibt", sagte EU-Medienkommissarin Viviane Reding in Brüssel. Bis 2010 sollen auf dem Portal zehn Millionen Objekte in allen EU-Sprachen abrufbar sein. Mehr als 1000 Archive, Museen und Bibliotheken lieferten bereits digitalisiertes Material. Die Kommission stellt zwei Millionen Euro pro Jahr für den Unterhalt der Plattform bereit. Die Kosten für die Digitalisierung tragen die Mitgliedstaaten. Bisher ist nur ein Prozent aller europäischen Kulturgüter elektronisch verfügbar. Um die angestrebte Zahl von zehn Millionen Werken bis 2010 zu erreichen, müssen die Staaten nach Schätzung der Kommission zusammen weitere 350 Millionen Euro in die Hand nehmen. Wie viel die Mitgliedstaaten bisher aufbrachten, blieb offen. Die EU will die Erforschung und Entwicklung von Technologien in dem Bereich in den kommenden zwei Jahren mit 119 Millionen Euro fördern. Die EU-Kulturminister sprachen sich dafür aus, das kulturelle Angebot im Internet weiter auszubauen und gleichzeitig ihren Kampf gegen Online-Piraterie zu verstärken. "Wir wollen legale glaubwürdige Angebote für Verbraucher schaffen", sagte die französische Ressortchefin Christine Albanel, die derzeit die Ministerrunde führt"
  3. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.05
    0.048846267 = product of:
      0.1465388 = sum of:
        0.117644474 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.117644474 = score(doc=1047,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.02889432 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.02889432 = score(doc=1047,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.33333334 = coord(2/6)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  4. Foerster, H. von; Müller, A.; Müller, K.H.: Rück- und Vorschauen : Heinz von Foerster im Gespräch mit Albert Müller und Karl H. Müller (2001) 0.05
    0.045515068 = product of:
      0.091030136 = sum of:
        0.0526282 = weight(_text_:sprachen in 5988) [ClassicSimilarity], result of:
          0.0526282 = score(doc=5988,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.19931486 = fieldWeight in 5988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.0294781 = weight(_text_:und in 5988) [ClassicSimilarity], result of:
          0.0294781 = score(doc=5988,freq=34.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3028952 = fieldWeight in 5988, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5988)
        0.008923839 = product of:
          0.017847678 = sum of:
            0.017847678 = weight(_text_:22 in 5988) [ClassicSimilarity], result of:
              0.017847678 = score(doc=5988,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.116070345 = fieldWeight in 5988, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5988)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    Darin: ... "Eine Idee, mit der wir uns beschäftigt haben, kommt jetzt langsam wirklich heraus. Wie rechnet man innerhalb einer semantischen Struktur? Wir haben das so gesehen, daß jedes Wort, jeder Begriff so ausschaut wie ein vielfältiges Element, das nach allen Richtungen seine Konnektivitäten ausstreckt und mit anderen solchen vielfältigen Elementen in Verbindung bringt. Und die Operationen bestehen darin, neue Verbindungen zu finden, die grammatisch kontrolliert werden und als Sprache herauskommen, aber konzeptuell konnektiert, so daß sie verbunden sind durch eine semantische interne Struktur. Das heißt, jeder Begriff ist für uns ein vielfältiger Rechner, der sich mit anderen Rechnern in Verbindung setzt. Damals hat das niemand verstanden, vielleicht habe ich es auch nicht gut dargestellt. Aber heute taucht das überall auf, semantic computation, mit lauter parallelen Maschinen, die alle gleichzeitig arbeiten und ihre Verbindungen herstellen. Unser Problem war damals schon: könnte man irgendetwas machen, um in natürlichen Sprachen mit einer Maschine sprechen zu können.
    Noch einige Schritte weiter zurück. Oft haben mich Bibliothekare angesprochen, wie sollte man eine Bibliothek aufbauen? Wir schauen, sagten sie, in eine Bibliothek so hinein, als wäre sie wie ein Gedächtnis. "Das ist schön, aber wissen Sie, wie das Gedächtnis funktioniert? "Nein, aber viele Leute sagen, das Gedächtnis arbeitet wie eine große Bibliothek. Man muß nur hineingreifen und das richtige Buch finden. "Das ist alles wunderschön und sehr lieb, aber wissen Sie, die Leute, die ein Buch suchen, suchen es ja nur, weil sie ein Problem haben und hoffen, in dem Buch die Antwort für das Problem zu finden. Das Buch ist nur ein Zwischenträger von einer Frage und einer vielleicht in dem Buch zu findenden Antwort. Aber das Buch ist nicht die Antwort. "Aha, wie stellen Sie sich das vor? Wir sollten das Problem so sehen, daß die Inhalte der Bücher, die semantische Struktur - wenn man jetzt diesen Ausdruck wieder verwenden möchte - dieser Bücher in einem System sitzt, sodaß ich in diese semantische Struktur mit meiner Frage einsteigen kann, und mir die semantische Struktur dieses Systems sagt, dann mußt du Karl Müllers Arbeiten über Symbole lesen, dann wirst du wissen, was du suchst. Ich wüßte aber von vornherein überhaupt nicht, wer der Karl Müller ist, daß er über Symbole geschrieben hat, etc., aber das System kann mir das liefern.
    Da braucht also der Mensch, der sich dafür interessiert, solche Antworten zu finden, nicht erst indirekt über den Karl Müller, den er auf irgendeiner Karteikarte findet, dort hineinzugehen, sondern durch direktes Ansprechen der semantischen Struktur seines Problems, sich mit der semantischen Struktur des Systems in Verbindung setzen, das mir dann weiterhilft in diejenigen Bereiche zu gehen, in denen ich dann vielleicht Antworten für meine Probleme finde. Also mit solchen und ähnlichen Gedanken haben wir uns beschäftigt, und Paul Weston hat hervorragende Arbeiten dazu geschrieben, der hat durch diese Sache durchgeschaut. Der Projektvorschlag, den ich heute noch habe, für dieses unerhörte Riesenprojekt, das waren mehrere Millionen Dollar, wurde überhaupt nicht verstanden. Das brauchen wir nicht, wir haben ja die Bücher, wir haben ja die Karteikarten. Da waren eben Schwierigkeiten, wo mir meine Freunde richtig vorwerfen, Heinz, du hast unseren Fall nicht richtig vorgetragen, sodaß die Leute, die imstande gewesen wären, uns finanziell zu unterstützen, nicht verstanden haben, wovon du redest. Trotz meiner intensiven Bemühungen ist es in vielen Fällen nicht gelungen, eine Überzeugung, ein Verständnis zu erreichen. Mein Gefühl damals war, daß das Verständnis einfach blockiert war, weil schon bestimmte Verständnisdirektionen so festgefroren waren. Um etwas zu erreichen, hätte man viel mehr Zeit gebraucht und vielmehr miteinander sprechen sollen, um ein Verständnis durchzusetzen.
    Date
    10. 9.2006 17:22:54
    Source
    Konstruktivismus und Kognitionswissenschaft. Kulturelle Wurzeln und Ergebnisse. Heinz von Foerster gewidwet. Zweite aktualisierte und erweiterte Auflage. Hrsg.: Albert Müller u.a
  5. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.04
    0.041153707 = product of:
      0.12346111 = sum of:
        0.087713666 = weight(_text_:sprachen in 3308) [ClassicSimilarity], result of:
          0.087713666 = score(doc=3308,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.33219144 = fieldWeight in 3308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.03574745 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.03574745 = score(doc=3308,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Problem der mehrsprachigen Suche gewinnt in der letzten Zeit immer mehr an Bedeutung, da viele nützliche Fachinformationen in der Welt in verschiedenen Sprachen publiziert werden. RSWBPlus ist eine bibliographische Datenbank zum Nachweis der Fachliteratur im Bereich Planen und Bauen, welche deutsch- und englischsprachige Metadaten-Einträge enthält. Bis vor Kurzem war es problematisch Einträge zu finden, deren Sprache sich von der Anfragesprache unterschied. Zum Beispiel fand man auf deutschsprachige Anfragen nur deutschsprachige Einträge, obwohl die Datenbank auch potenziell nützliche englischsprachige Einträge enthielt. Um das Problem zu lösen, wurde nach einer Untersuchung bestehender Ansätze, die RSWBPlus weiterentwickelt, um eine mehrsprachige (sprachübergreifende) Suche zu unterstützen, welche unter Einbeziehung eines zweisprachigen begriffbasierten Thesaurus erfolgt. Der Thesaurus wurde aus bereits bestehenden Thesauri automatisch gebildet. Die Einträge der Quell-Thesauri wurden in SKOS-Format (Simple Knowledge Organisation System) umgewandelt, automatisch miteinander vereinigt und schließlich in einen Ziel-Thesaurus eingespielt, der ebenfalls in SKOS geführt wird. Für den Zugriff zum Ziel-Thesaurus werden Apache Jena und MS SQL Server verwendet. Bei der mehrsprachigen Suche werden Terme der Anfrage durch entsprechende Übersetzungen und Synonyme in Deutsch und Englisch erweitert. Die Erweiterung der Suchterme kann sowohl in der Laufzeit, als auch halbautomatisch erfolgen. Das verbesserte Recherchesystem kann insbesondere deutschsprachigen Benutzern helfen, relevante englischsprachige Einträge zu finden. Die Verwendung vom SKOS erhöht die Interoperabilität der Thesauri, vereinfacht das Bilden des Ziel-Thesaurus und den Zugriff zu seinen Einträgen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Jaeger, L.: Diskussion um die Gestaltung des technologischen Fortschritts am Beispiel der Künstlichen Intelligenz (2019) 0.04
    0.03851935 = product of:
      0.11555804 = sum of:
        0.08403176 = weight(_text_:einzelne in 4963) [ClassicSimilarity], result of:
          0.08403176 = score(doc=4963,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.3251446 = fieldWeight in 4963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
        0.031526286 = weight(_text_:und in 4963) [ClassicSimilarity], result of:
          0.031526286 = score(doc=4963,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.32394084 = fieldWeight in 4963, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4963)
      0.33333334 = coord(2/6)
    
    Content
    "Wie das konkret aussehen kann, könnte eine Initiative der EU-Kommission mit der Gründung einer Experten-Gruppe (High-Level Expert Group on Artificial Intelligence, AI HLEG) aufzeigen, die sich im Dezember 2018 mit einem Beitrag "Ethische Grundlagen für eine vertrauenswürdige KI" an die Öffentlichkeit wandte. "Künstliche Intelligenz (KI) ist eine der transformativsten Kräfte unserer Zeit und wird das Gewebe der Gesellschaft verändern", heißt es darin gleich zu Beginn. Die Experten nennen daraufhin die Prinzipien auf dem Weg zu einer verantwortungsvollen Entwicklung der KI-Technologien. Insbesondere sei hier ein "anthropo-zentrischer" Ansatz vonnöten, so die Gruppe unisono. Ziel ist es, die Entwicklung der KI derart zu gestalten, dass der einzelne Mensch, seine Würde und seine Freiheit geschützt werde, Demokratie, Recht und Gesetz sowie Bürgerrechte aufrecht erhalten werden und Gleichheit, Minderheitenschutz und Solidarität gefördert werden. Grundlegende Richtlinien für jede KI-Technologie müssen daher sein: 1. Den Menschen Gutes zukommen zu lassen; 2. kein menschliches Leid zu verursachen; 3. die menschliche Autonomie zu fördern; 4. das Prinzip der Fairness gelten zu lassen; und 5. Transparenz und Nachvollziehbarkeit in allen Wirkungen zu erreichen." Vgl. auch: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence.
  7. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.04
    0.037128434 = product of:
      0.1113853 = sum of:
        0.07277364 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.07277364 = score(doc=5908,freq=6.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.03861166 = weight(_text_:und in 5908) [ClassicSimilarity], result of:
          0.03861166 = score(doc=5908,freq=84.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3967449 = fieldWeight in 5908, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    3. Reiseschritte werden dezentralisiert. Alles bekommt ein Etikett: Personen, ihre Gepäckstücke und das Frachtgepäck. Und bei allen wird die ganze Zeit über nachvollzogen, welche Verkehrsmittel auch immer sie auf dem Flughafengelände nutzen. Dies bedeutet, dass Reisevisa und Zoll-Checks schon vor dem Flug vorgenommen werden können und man am Flughafen selbst Zeit spart. Auch die Gepäckabgabe und -annahme wird dort angeboten, wo es für den Fluggast am praktischsten ist, zum Beispiel am Bahnhof. 4. Flughäfen sind hochgradig vernetzt. Das neue Zeitalter miteinander vernetzter Flughäfen wird von immer günstigeren Sensoren, weniger spezieller Hardware und neuen Data Lakes gesteuert, die von 5G-Geräten gespeist werden. Die dazu erforderlichen Daten werden über softwaredefinierte Netzwerke erfasst, gesammelt und analysiert, um den Flughafen hocheffizient zu machen und Passagieren ein deutlich besseres Erlebnis zu ermöglichen.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
  8. Konecny, J.: Bin ich tatsächlich mein Konnektom? (2018) 0.03
    0.033557557 = product of:
      0.10067266 = sum of:
        0.033703018 = weight(_text_:und in 75) [ClassicSimilarity], result of:
          0.033703018 = score(doc=75,freq=4.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34630734 = fieldWeight in 75, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=75)
        0.06696964 = product of:
          0.13393928 = sum of:
            0.13393928 = weight(_text_:allgemein in 75) [ClassicSimilarity], result of:
              0.13393928 = score(doc=75,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.5805288 = fieldWeight in 75, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.078125 = fieldNorm(doc=75)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Gesamtheit aller Verbindungen im Gehirn, das Konnektom, ist ein heiß diskutiertes Thema in der Hirnforschung, der Philosophie des Bewusstseins, den Bestrebungen, künstliche Intelligenz zu entwickeln, aber auch in der Kryobiologie bzw. der Suche nach dem ewigen Leben. Wohl auch ein Streitpunkt zwischen manchen Hirnforschern und Neuroinformatikern.
    Series
    SciLogs / Gehirn & KI / Allgemein
    Source
    https://scilogs.spektrum.de/gehirn-und-ki/ich-bin-mein-konnektom/
  9. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.03
    0.03343861 = product of:
      0.10031583 = sum of:
        0.07017093 = weight(_text_:sprachen in 136) [ClassicSimilarity], result of:
          0.07017093 = score(doc=136,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.26575315 = fieldWeight in 136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
        0.030144898 = weight(_text_:und in 136) [ClassicSimilarity], result of:
          0.030144898 = score(doc=136,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3097467 = fieldWeight in 136, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
      0.33333334 = coord(2/6)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
  10. Seer, V.: Von der Schattenbibliothek zum Forschungskorpus : ein Gespräch über Sci-Hub und die Folgen für die Wissenschaft (2017) 0.03
    0.03341583 = product of:
      0.100247495 = sum of:
        0.06722541 = weight(_text_:einzelne in 5606) [ClassicSimilarity], result of:
          0.06722541 = score(doc=5606,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.033022083 = weight(_text_:und in 5606) [ClassicSimilarity], result of:
          0.033022083 = score(doc=5606,freq=24.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 5606, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
      0.33333334 = coord(2/6)
    
    Abstract
    Die so genannten Schattenbibliotheken sind vermutlich die radikalste Form, um Beschränkungen des Zugangs zu wissenschaftlicher Literatur zu umgehen. Sie nutzen die Möglichkeiten digitaler Medien und Netze und vermitteln konsequent, niedrigschwellig und umfangreich den Zugang zu digitalen Kopien von Monographien und Aufsätzen. Obschon offensichtlich in vielen Fällen urheberrechtswidrig, erfreuen sich diese Plattformen einer regen Nachfrage und zwar naturgemäß vor allem aus dem Bereich der Wissenschaft. Es scheint, als würden die Schattenbibliotheken Versorgungslücken schließen, die auch vergleichsweise gut ausgestattete Hochschulbibliotheken haben. Einer weiterer Aspekt könnte sein, dass die sehr einfache Benutzbarkeit verbunden mit der Aussicht, ein Paper garantiert herunterladen zu können, den Umweg über VPN-Einwahl und Bibliotheks-Login unattraktiv macht. Werden Schattenbibliotheken somit zur Konkurrenz für Hochschulbibliotheken? Und mit welcher Motivation setzen sich die Betreiber dieser Plattformen einer möglichen Strafverfolgung, die im Kontext der jüngsten Urteile nun wahrscheinlicher wird, aus? Im Juni diesen Jahres bekam der Wissenschaftsverlag Elsevier, der Gewinnmargen von 37% erzielt (siehe Holcombe 2015), von einem US-Gericht knapp 13 Millionen Euro Schadensersatz für die nicht genehmigte Verbreitung von 100 wissenschaftlichen Artikeln (siehe Scherschel 2017 und Strecker 2017) zugesprochen. Die Fachgesellschaft American Chemical Society (ACS) erhielt in einem zweiten Urteil den Anspruch auf knapp 4,1 Millionen Euro Schadenersatz für 32 zu Unrecht kopierte und verbreitete Werke (Siehe Ernesto 2017). Neben der zunehmenden Kriminalisierung erfährt Sci-Hub jedoch auch großen Zuspruch, der sich neben der starken Nutzung auch in Solidaritätsbekundungen manifestiert (siehe Barok, D. et al 2015).
    LIBREAS hatte die Gelegenheit, sich mit einer an der Plattform Sci-Hub beteiligten Person zu unterhalten. Das Interview und die damit verbundenen informationsethischen Fragestellungen führten dabei redaktionsintern zu einigen Diskussionen. Auch stand die Frage im Raum, ob der Text überhaupt veröffentlicht werden sollte. Sci-Hub kann jedoch als mittlerweile sehr großer potentieller Forschungskorpus sowie aufgrund seiner starken Nutzung als wissenschaftliches Instrument trotz seines rechtlichen Status nicht ignoriert werden. Wir haben versucht, einzelne Behauptungen im Text mit Quellen zu belegen. Naturgemäß sind jedoch nicht sämtliche Angaben verifizierbar. Daher haben wir uns entschlossen größtenteils möglichst direkt die Aussagen des Interviewpartners wiederzugeben. Alle redaktionellen Anmerkungen sind durch eckige Klammern gekennzeichnet. Das Gespräch für LIBREAS führten Linda Freyberg und Ben Kaden.
  11. Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017) 0.03
    0.03294722 = product of:
      0.09884165 = sum of:
        0.06722541 = weight(_text_:einzelne in 3772) [ClassicSimilarity], result of:
          0.06722541 = score(doc=3772,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 3772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
        0.031616237 = weight(_text_:und in 3772) [ClassicSimilarity], result of:
          0.031616237 = score(doc=3772,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3248651 = fieldWeight in 3772, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3772)
      0.33333334 = coord(2/6)
    
    Abstract
    Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
    Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
  12. Eversberg, B.: Zur Zukunft der Katalogisierung : ... jenseits RAK und AACR (2004) 0.03
    0.031354327 = product of:
      0.09406298 = sum of:
        0.04718423 = weight(_text_:und in 3632) [ClassicSimilarity], result of:
          0.04718423 = score(doc=3632,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4848303 = fieldWeight in 3632, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3632)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 3632) [ClassicSimilarity], result of:
              0.093757495 = score(doc=3632,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 3632, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3632)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    "Katalogisierung" klingt in manchen Ohren altmodisch. Man redet heute von "Metadaten"! Gemeint ist aber nichts völlig anderes. Es gibt nur viele neue Formen, Praktiken und Nutzungen, während sich früher Katalogdaten fast nur in Katalogen und Bibliographien befanden. "Metadaten" ist nur ein neuer Oberbegriff, aber in einer Katalogdatenbank haben wir längst mehr und andersartige Datenelemente und Funktionen als in Zettelkatalogen. Es ist notwendig, weiter auszugreifen als es die klassischen Regelwerke, RAK und AACR, getan haben, und deren hergebrachte Konzepte zu überdenken.
    Footnote
    Präsentation zum Vortrag "Zur Zukunft der Katalogisierung" während des Österreichischen Bibliothekartages in Linz 22.09.2004, Themenkreis: Google und die Zukunft der bibliothekarischen Erschließung. - Zuletzt aktualisiert: 15.07.2008.
    Theme
    Katalogfragen allgemein
  13. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.03
    0.031303998 = product of:
      0.09391199 = sum of:
        0.071303315 = weight(_text_:einzelne in 331) [ClassicSimilarity], result of:
          0.071303315 = score(doc=331,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.27589434 = fieldWeight in 331, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
        0.022608673 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.022608673 = score(doc=331,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.23231003 = fieldWeight in 331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  14. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.03
    0.03122789 = product of:
      0.09368367 = sum of:
        0.053501885 = weight(_text_:und in 406) [ClassicSimilarity], result of:
          0.053501885 = score(doc=406,freq=28.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.54974586 = fieldWeight in 406, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=406)
        0.040181782 = product of:
          0.080363564 = sum of:
            0.080363564 = weight(_text_:allgemein in 406) [ClassicSimilarity], result of:
              0.080363564 = score(doc=406,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.34831727 = fieldWeight in 406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=406)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  15. Jörs, B.: ¬Die Dringlichkeit von Reformen in der Aus- und Weiterbildung hat sich noch einmal beschleunigt : Was die Studierenden der Informationswissenschaft an Zukunftsfähigem lernen. Und was in der Informationswissenschaft alles nicht geht (2018) 0.03
    0.030338516 = product of:
      0.09101555 = sum of:
        0.044136804 = weight(_text_:und in 4935) [ClassicSimilarity], result of:
          0.044136804 = score(doc=4935,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.4535172 = fieldWeight in 4935, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4935)
        0.046878748 = product of:
          0.093757495 = sum of:
            0.093757495 = weight(_text_:allgemein in 4935) [ClassicSimilarity], result of:
              0.093757495 = score(doc=4935,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.40637016 = fieldWeight in 4935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4935)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Hat sich aus der Sicht der Keynote-Speaker und Referenten seit ihrem Auftritt auf der Buchmesse-Veranstaltung "Steilvorlagen für den Unternehmenserfolg" einiges verändert? Wir haben sie gefragt. Keynote-Speaker Prof. Bern Jörs lehrt Informationswissenschaft an der Hochschule Darmstadt und wurde von seinen Studierenden wiederholt zum Professor des Jahres gewählt. Nachdem er vor zwei Jahren eine Brand- und Warnrede gehalten hatte, stellt er heute fest: In Ausbildung und Weiterbildung und in der Informationswissenschaft allgemein ist alles noch schlimmer geworden.
  16. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.03
    0.028865932 = product of:
      0.08659779 = sum of:
        0.033022083 = weight(_text_:und in 3611) [ClassicSimilarity], result of:
          0.033022083 = score(doc=3611,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
        0.05357571 = product of:
          0.10715142 = sum of:
            0.10715142 = weight(_text_:allgemein in 3611) [ClassicSimilarity], result of:
              0.10715142 = score(doc=3611,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.46442303 = fieldWeight in 3611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3611)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
    Theme
    Katalogfragen allgemein
  17. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.028763574 = product of:
      0.08629072 = sum of:
        0.06722541 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06722541 = score(doc=431,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.019065307 = weight(_text_:und in 431) [ClassicSimilarity], result of:
          0.019065307 = score(doc=431,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.19590102 = fieldWeight in 431, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  18. axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012) 0.03
    0.028399674 = product of:
      0.08519902 = sum of:
        0.058822237 = weight(_text_:einzelne in 313) [ClassicSimilarity], result of:
          0.058822237 = score(doc=313,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.22760123 = fieldWeight in 313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
        0.026376786 = weight(_text_:und in 313) [ClassicSimilarity], result of:
          0.026376786 = score(doc=313,freq=20.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27102837 = fieldWeight in 313, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=313)
      0.33333334 = coord(2/6)
    
    Content
    "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
    Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
    Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
  19. DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021) 0.03
    0.027247211 = product of:
      0.08174163 = sum of:
        0.023712177 = weight(_text_:und in 405) [ClassicSimilarity], result of:
          0.023712177 = score(doc=405,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.24364883 = fieldWeight in 405, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=405)
        0.058029458 = sum of:
          0.040181782 = weight(_text_:allgemein in 405) [ClassicSimilarity], result of:
            0.040181782 = score(doc=405,freq=2.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.17415863 = fieldWeight in 405, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0234375 = fieldNorm(doc=405)
          0.017847678 = weight(_text_:22 in 405) [ClassicSimilarity], result of:
            0.017847678 = score(doc=405,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.116070345 = fieldWeight in 405, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=405)
      0.33333334 = coord(2/6)
    
    Footnote
    Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
    Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
    Source
    Frontiers in ecology and evolution, 22 October 2021 [https://www.frontiersin.org/articles/10.3389/fevo.2021.742639/full]
  20. Haake, E.; Blenkle, M.; Ellis, R.; Zillmann, H.: Nur die ersten Drei zählen! : Optimierung der Rankingverfahren über Popularitätsfaktoren bei der Elektronischen Bibliothek Bremen (E-LIB) (2015) 0.03
    0.026875136 = product of:
      0.08062541 = sum of:
        0.040443625 = weight(_text_:und in 2150) [ClassicSimilarity], result of:
          0.040443625 = score(doc=2150,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.41556883 = fieldWeight in 2150, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2150)
        0.040181782 = product of:
          0.080363564 = sum of:
            0.080363564 = weight(_text_:allgemein in 2150) [ClassicSimilarity], result of:
              0.080363564 = score(doc=2150,freq=2.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.34831727 = fieldWeight in 2150, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2150)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Seit Einführung der neuen Discovery-Kataloge stehen unseren Nutzerinnen und Nutzern zusätzlich Millionen von Dokumenten neben dem lokalen Buchbestand zur Verfügung. Diese Zielgruppe muss in die Lage versetzt werden, die für sie relevanten Titel einfach und sicher zu finden. Die Qualität von Empfehlungsfunktionen und besonders der Relevanz-Ranking-Methoden sind daher für den Erfolg eines Discovery-Systems besonders wichtig. Das Ranking bibliothekarischer Suchmaschinentechnik ignoriert bisher das Feedback durch Nutzerinnen und Nutzer. Die Staats- und Universitätsbibliothek Bremen (SuUB) setzt mit dem in Bremen entwickelten Discovery-System "E-LIB" seit Sommer 2011 zusätzlich auf eine Modifikation des Treffer-Rankings über Popularitätsfaktoren der Medien wie Klickstatistik, Auflagen- und Exemplarzahl. Die maßgeschneiderte Entwicklung eines eigenen Bibliothekskataloges, den die SuUB seit 2004 mit dem Discovery-System "E-LIB" in Bremen betreibt, erlaubt die schnelle und flexible Anpassung von Retrievalfunktionen an die Bedürfnisse der Nutzerinnen und Nutzer vor Ort.
    Theme
    Katalogfragen allgemein

Years

Languages

  • d 445
  • e 58
  • a 1
  • More… Less…