Search (1807 results, page 1 of 91)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.15
    0.15182036 = product of:
      0.7591018 = sum of:
        0.047443863 = product of:
          0.14233159 = sum of:
            0.14233159 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.14233159 = score(doc=1826,freq=2.0), product of:
                0.15195054 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.017922899 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.14233159 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.14233159 = score(doc=1826,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.14233159 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.14233159 = score(doc=1826,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.14233159 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.14233159 = score(doc=1826,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.14233159 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.14233159 = score(doc=1826,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.14233159 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.14233159 = score(doc=1826,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.2 = coord(6/30)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.14
    0.14206529 = product of:
      0.60885125 = sum of:
        0.03795509 = product of:
          0.113865264 = sum of:
            0.113865264 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.113865264 = score(doc=230,freq=2.0), product of:
                0.15195054 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.017922899 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.113865264 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.113865264 = score(doc=230,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.113865264 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.113865264 = score(doc=230,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.113865264 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.113865264 = score(doc=230,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.113865264 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.113865264 = score(doc=230,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.113865264 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.113865264 = score(doc=230,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.0015698604 = product of:
          0.004709581 = sum of:
            0.004709581 = weight(_text_:a in 230) [ClassicSimilarity], result of:
              0.004709581 = score(doc=230,freq=10.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.22789092 = fieldWeight in 230, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
      0.23333333 = coord(7/30)
    
    Abstract
    In this lecture I intend to challenge those who uphold a monist or even a dualist view of the universe; and I will propose, instead, a pluralist view. I will propose a view of the universe that recognizes at least three different but interacting sub-universes.
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
    Type
    a
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.08
    0.07591018 = product of:
      0.3795509 = sum of:
        0.023721932 = product of:
          0.07116579 = sum of:
            0.07116579 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.07116579 = score(doc=4388,freq=2.0), product of:
                0.15195054 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.017922899 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.07116579 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.07116579 = score(doc=4388,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.07116579 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.07116579 = score(doc=4388,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.07116579 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.07116579 = score(doc=4388,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.07116579 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.07116579 = score(doc=4388,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.07116579 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.07116579 = score(doc=4388,freq=2.0), product of:
            0.15195054 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.017922899 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.2 = coord(6/30)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Krüger, N.; Pianos, T.: Lernmaterialien für junge Forschende in den Wirtschaftswissenschaften als Open Educational Resources (OER) (2021) 0.01
    0.011574748 = product of:
      0.115747474 = sum of:
        0.0968031 = weight(_text_:wirtschaftswissenschaften in 252) [ClassicSimilarity], result of:
          0.0968031 = score(doc=252,freq=6.0), product of:
            0.11380646 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.017922899 = queryNorm
            0.8505941 = fieldWeight in 252, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.0546875 = fieldNorm(doc=252)
        0.0063836705 = product of:
          0.012767341 = sum of:
            0.012767341 = weight(_text_:online in 252) [ClassicSimilarity], result of:
              0.012767341 = score(doc=252,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23471867 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.5 = coord(1/2)
        0.012560702 = product of:
          0.018841052 = sum of:
            0.001842915 = weight(_text_:a in 252) [ClassicSimilarity], result of:
              0.001842915 = score(doc=252,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.089176424 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
            0.016998138 = weight(_text_:22 in 252) [ClassicSimilarity], result of:
              0.016998138 = score(doc=252,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.2708308 = fieldWeight in 252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=252)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Abstract
    Das EconBiz Academic Career Kit ist ein interaktives Online-Tutorial für den wissenschaftlichen Nachwuchs in den Wirtschaftswissenschaften. In drei Modulen geht es um die Themen: erste Veröffentlichung, Open Access, Predatory Journals und Urheberrecht - Wissenschaftskommunikation, kollaboratives Arbeiten, Networking und Metriken - Forschungsdatenmanagement. Angebote der Vermittlung von Informationskompetenz sind in diesen Feldern und für diese Zielgruppe in Deutschland noch nicht flächendeckend verbreitet. Darum - und weil Forschende sich zu diesen Fragen meist im Netz informieren - ist das Academic Career Kit als OER unter der Lizenz CC-BY veröffentlicht und damit zur Bearbeitung und Weiterverwendung durch Dritte freigegeben.
    Date
    22. 5.2021 12:43:05
    Field
    Wirtschaftswissenschaften
    Type
    a
  5. Lehmann, M.: Neue Tools für die Online-Recherche : EU-Projekt EEXCESS veröffentlicht vier neue Prototypen (2015) 0.01
    0.010945458 = product of:
      0.08209093 = sum of:
        0.027439507 = weight(_text_:einzelne in 2324) [ClassicSimilarity], result of:
          0.027439507 = score(doc=2324,freq=2.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.26011568 = fieldWeight in 2324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2324)
        0.026719471 = weight(_text_:post in 2324) [ClassicSimilarity], result of:
          0.026719471 = score(doc=2324,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.25668016 = fieldWeight in 2324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.03125 = fieldNorm(doc=2324)
        0.02277317 = weight(_text_:neue in 2324) [ClassicSimilarity], result of:
          0.02277317 = score(doc=2324,freq=6.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.31186774 = fieldWeight in 2324, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.03125 = fieldNorm(doc=2324)
        0.0051587853 = product of:
          0.0103175705 = sum of:
            0.0103175705 = weight(_text_:online in 2324) [ClassicSimilarity], result of:
              0.0103175705 = score(doc=2324,freq=4.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.18968134 = fieldWeight in 2324, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2324)
          0.5 = coord(1/2)
      0.13333334 = coord(4/30)
    
    Abstract
    Mitteilung an Inetbib vom 17.11.2015: "die EEXCESS <http://www.eexcess.eu/>-Projektpartner, darunter auch die ZBW - Leibniz Informationszentrum Wirtschaft, stellen vier Prototypen für die personalisierte Daten- und Literaturrecherche vor. Ziel der neuen Software ist es, dem Nutzer bei der wissenschaftlichen Arbeit genau die Spezialressourcen zugänglich zu machen, die zu seinem Profil und zu seinem aktuellen Suchverhalten passen. Dazu wurden neuartige Empfehlungstechnologien entwickelt. Das EU-Projekt EEXCESS befasst sich seit Anfang 2013 mit neuen Methoden der Informationsbereitstellung im Internet. Prof. Dr. Klaus Tochtermann, Direktor der ZBW: "Ich freue mich, dass wir nach dreijähriger Forschungsarbeit diese neuen Recherchewerkzeuge zugänglich machen können. Wir läuten damit einen grundsätzlichen Paradigmenwechsel ein: Bringt die Inhalte zu den Nutzern, nicht die Nutzer zu den Inhalten!" Über ein Userinterface, das in den Google-Chrome-Browser, in den Google-Docs-Editor, in die Blogsoftware WordPress oder auch in das Lernmanagementsystem Moodle integriert werden kann, erhalten die Nutzerinnen und Nutzer automatisch auf sie persönlich zugeschnittene Empfehlungen aus kulturhistorischen Datenbanken wie www.europeana.eu <http://www.europeana.eu> oder auch aus wissenschaftlichen Literaturdatenbanken wie www.mendeley.com <http://www.mendeley.com> (wissenschaftliche Aufsätze) oder www.econbiz.de <http://www.econbiz.de> (wirtschaftswissenschaftliche Literatur). Diese Vorschläge können sie dann bei Bedarf beispielsweise direkt als Referenzen in ihre Texte einbinden. Die Anzahl der an die Software angeschlossenen Datenbanken wird laufend erweitert. Nach einer ersten Beta-Phase im letzten Jahr stehen nun neue Versionen der Prototypen zum kostenlosen Download bereit. Die Links sind auf www.eexcess.eu <http://www.eexcess.eu> zu finden. An dem Forschungsprojekt beteiligt sind insgesamt zehn internationale Projektpartner, darunter die ZBW - Leibniz Informationszentrum Wirtschaft <http://www.zbw.eu/>. Hier wurde das Plug-In für die Blogsoftware WordPress maßgeblich mitentwickelt. Blogger können damit, noch während sie ihren Post verfassen, nach geeigneten Referenzen oder auch Bildern suchen. Zudem kann die ZBW mit ihrer großen Online-Nutzerbasis eine sehr gute Testumgebung für die verschiedenen Tools bieten. Einzelne Visualisierungselemente, die im Projekt entwickelt wurden, kommen zukünftig auch im ZBW-Rechercheportal EconBiz zum Einsatz und können dort getestet werden. Darüber hinaus werden EconBiz-Inhalte über die EEXCESS-Module auch in beliebige andere Umgebungen eingebunden. Die weiteren Projektpartner kommen aus Österreich, Großbritannien, Frankreich, der Schweiz und Deutschland. Die wissenschaftliche Leitung hat Professor Michael Granitzer von der Universität Passau, die allgemeine Projektleitung liegt beim Forschungsinstitut Joanneum Research aus Graz. Das Projektvolumen beträgt insgesamt ca. 6,9 Millionen Euro, Projektlaufzeit ist noch bis Juli 2016.
  6. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.01
    0.010130297 = product of:
      0.101302974 = sum of:
        0.026319932 = weight(_text_:medien in 3397) [ClassicSimilarity], result of:
          0.026319932 = score(doc=3397,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.31200847 = fieldWeight in 3397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3397)
        0.07012644 = sum of:
          0.010943435 = weight(_text_:online in 3397) [ClassicSimilarity], result of:
            0.010943435 = score(doc=3397,freq=2.0), product of:
              0.05439423 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.017922899 = queryNorm
              0.20118743 = fieldWeight in 3397, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.046875 = fieldNorm(doc=3397)
          0.059183 = weight(_text_:dienste in 3397) [ClassicSimilarity], result of:
            0.059183 = score(doc=3397,freq=4.0), product of:
              0.106369466 = queryWeight, product of:
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.017922899 = queryNorm
              0.5563909 = fieldWeight in 3397, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.934836 = idf(docFreq=317, maxDocs=44218)
                0.046875 = fieldNorm(doc=3397)
        0.0048566107 = product of:
          0.014569832 = sum of:
            0.014569832 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.014569832 = score(doc=3397,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
  7. Junger, U.: Can indexing be automated? : the example of the Deutsche Nationalbibliothek (2012) 0.01
    0.009183176 = product of:
      0.068873815 = sum of:
        0.046759073 = weight(_text_:post in 1717) [ClassicSimilarity], result of:
          0.046759073 = score(doc=1717,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.4491903 = fieldWeight in 1717, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1717)
        0.0063836705 = product of:
          0.012767341 = sum of:
            0.012767341 = weight(_text_:online in 1717) [ClassicSimilarity], result of:
              0.012767341 = score(doc=1717,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23471867 = fieldWeight in 1717, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1717)
          0.5 = coord(1/2)
        0.014862318 = weight(_text_:u in 1717) [ClassicSimilarity], result of:
          0.014862318 = score(doc=1717,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25324488 = fieldWeight in 1717, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1717)
        8.6875854E-4 = product of:
          0.0026062755 = sum of:
            0.0026062755 = weight(_text_:a in 1717) [ClassicSimilarity], result of:
              0.0026062755 = score(doc=1717,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.12611452 = fieldWeight in 1717, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1717)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    The German subject headings authority file (Schlagwortnormdatei/SWD) provides a broad controlled vocabulary for indexing documents of all subjects. Traditionally used for intellectual subject cataloguing primarily of books the Deutsche Nationalbibliothek (DNB, German National Library) has been working on developping and implementing procedures for automated assignment of subject headings for online publications. This project, its results and problems are sketched in the paper.
    Content
    Beitrag für die Tagung: Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn. Vgl.: http://http://www.nlib.ee/index.php?id=17763.
    Type
    a
  8. Tappenbeck, I.; Michel, A.; Wittich, A.; Werr, N.; Gäde, M.; Spree, U.; Gläser, C.; Griesbaum, J.; Mandl, T.; Keller-Loibl, K.; Stang, R.: Framework Informationskompetenz : Ein gemeinsamer Standard für die Qualifikation in den bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland (2022) 0.01
    0.009027746 = product of:
      0.06770809 = sum of:
        0.008576217 = product of:
          0.017152434 = sum of:
            0.017152434 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.017152434 = score(doc=540,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.5 = coord(1/2)
        0.030706586 = weight(_text_:medien in 540) [ClassicSimilarity], result of:
          0.030706586 = score(doc=540,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.3640099 = fieldWeight in 540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.014862318 = weight(_text_:u in 540) [ClassicSimilarity], result of:
          0.014862318 = score(doc=540,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25324488 = fieldWeight in 540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=540)
        0.013562972 = product of:
          0.020344457 = sum of:
            0.0031920224 = weight(_text_:a in 540) [ClassicSimilarity], result of:
              0.0031920224 = score(doc=540,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.1544581 = fieldWeight in 540, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
            0.017152434 = weight(_text_:29 in 540) [ClassicSimilarity], result of:
              0.017152434 = score(doc=540,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.27205724 = fieldWeight in 540, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=540)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das "Framework Informationskompetenz", ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
    Date
    2. 4.2022 13:42:29
    Type
    a
  9. Moebius, R.: ¬Die Zitiercommunity (2019) 0.01
    0.008905093 = product of:
      0.089050926 = sum of:
        0.014702087 = product of:
          0.029404175 = sum of:
            0.029404175 = weight(_text_:29 in 5727) [ClassicSimilarity], result of:
              0.029404175 = score(doc=5727,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.46638384 = fieldWeight in 5727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5727)
          0.5 = coord(1/2)
        0.052639864 = weight(_text_:medien in 5727) [ClassicSimilarity], result of:
          0.052639864 = score(doc=5727,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.62401694 = fieldWeight in 5727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.09375 = fieldNorm(doc=5727)
        0.021708973 = product of:
          0.03256346 = sum of:
            0.003159283 = weight(_text_:a in 5727) [ClassicSimilarity], result of:
              0.003159283 = score(doc=5727,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.15287387 = fieldWeight in 5727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5727)
            0.029404175 = weight(_text_:29 in 5727) [ClassicSimilarity], result of:
              0.029404175 = score(doc=5727,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.46638384 = fieldWeight in 5727, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5727)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Date
    1. 4.2019 10:29:34
    Series
    Telepolis: Kultur und Medien
    Type
    a
  10. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.01
    0.008850638 = product of:
      0.08850638 = sum of:
        0.012732382 = product of:
          0.025464764 = sum of:
            0.025464764 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
              0.025464764 = score(doc=2248,freq=6.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.40390027 = fieldWeight in 2248, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2248)
          0.5 = coord(1/2)
        0.034159757 = weight(_text_:neue in 2248) [ClassicSimilarity], result of:
          0.034159757 = score(doc=2248,freq=6.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.46780163 = fieldWeight in 2248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=2248)
        0.04161424 = sum of:
          0.0015796415 = weight(_text_:a in 2248) [ClassicSimilarity], result of:
            0.0015796415 = score(doc=2248,freq=2.0), product of:
              0.020665944 = queryWeight, product of:
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.017922899 = queryNorm
              0.07643694 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.153047 = idf(docFreq=37942, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.025464764 = weight(_text_:29 in 2248) [ClassicSimilarity], result of:
            0.025464764 = score(doc=2248,freq=6.0), product of:
              0.063047156 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.017922899 = queryNorm
              0.40390027 = fieldWeight in 2248, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
          0.014569832 = weight(_text_:22 in 2248) [ClassicSimilarity], result of:
            0.014569832 = score(doc=2248,freq=2.0), product of:
              0.06276294 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.017922899 = queryNorm
              0.23214069 = fieldWeight in 2248, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=2248)
      0.1 = coord(3/30)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
    Content
    https://www.o-bib.de/article/view/2017H4S22-29. DOI: https://doi.org/10.5282/o-bib/2017H4S22-29.
    Source
    o-bib: Das offene Bibliotheksjournal. 4(2017) Nr.4, S.22-29
    Type
    a
  11. O'Neill, E.T.; Bennett, R.; Kammerer, K.: Using authorities to improve subject searches (2012) 0.01
    0.00860365 = product of:
      0.06452737 = sum of:
        0.0073510436 = product of:
          0.014702087 = sum of:
            0.014702087 = weight(_text_:29 in 310) [ClassicSimilarity], result of:
              0.014702087 = score(doc=310,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.5 = coord(1/2)
        0.040079206 = weight(_text_:post in 310) [ClassicSimilarity], result of:
          0.040079206 = score(doc=310,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.38502026 = fieldWeight in 310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.046875 = fieldNorm(doc=310)
        0.0054717176 = product of:
          0.010943435 = sum of:
            0.010943435 = weight(_text_:online in 310) [ClassicSimilarity], result of:
              0.010943435 = score(doc=310,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.20118743 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.5 = coord(1/2)
        0.0116254045 = product of:
          0.017438106 = sum of:
            0.0027360192 = weight(_text_:a in 310) [ClassicSimilarity], result of:
              0.0027360192 = score(doc=310,freq=6.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.13239266 = fieldWeight in 310, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
            0.014702087 = weight(_text_:29 in 310) [ClassicSimilarity], result of:
              0.014702087 = score(doc=310,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23319192 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=310)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Authority files have played an important role in improving the quality of indexing and subject cataloging. Although authorities can significantly improve search by increasing the number of access points, they are rarely an integral part of the information retrieval process, particularly end-users searches. A retrieval prototype, searchFAST, was developed to test the feasibility of using an authority file as an index to bibliographic records. searchFAST uses FAST (Faceted Application of Subject Terminology) as an index to OCLC's WorldCat.org bibliographic database. The searchFAST methodology complements, rather than replaces, existing WorldCat.org access. The bibliographic file is searched indirectly; first the authority file is searched to identify appropriate subject headings, then the headings are used to retrieve the matching bibliographic records. The prototype demonstrates the effectiveness and practicality of using an authority file as an index. Searching the authority file leverages authority control work by increasing the number of access points while supporting a simple interface designed for end-users.
    Date
    29. 5.2015 20:57:41
    Source
    Beyond libraries - subject metadata in the digital environment and semantic web. IFLA Satellite Post-Conference, 17-18 August 2012, Tallinn
    Theme
    Verbale Doksprachen im Online-Retrieval
    Type
    a
  12. Gehirn, Gedächtnis, neuronale Netze (1996) 0.01
    0.008565387 = product of:
      0.064240396 = sum of:
        0.031172188 = product of:
          0.062344376 = sum of:
            0.062344376 = weight(_text_:industrie in 4661) [ClassicSimilarity], result of:
              0.062344376 = score(doc=4661,freq=2.0), product of:
                0.12019911 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.017922899 = queryNorm
                0.51867586 = fieldWeight in 4661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4661)
          0.5 = coord(1/2)
        0.0063836705 = product of:
          0.012767341 = sum of:
            0.012767341 = weight(_text_:online in 4661) [ClassicSimilarity], result of:
              0.012767341 = score(doc=4661,freq=2.0), product of:
                0.05439423 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.017922899 = queryNorm
                0.23471867 = fieldWeight in 4661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4661)
          0.5 = coord(1/2)
        0.021018492 = weight(_text_:u in 4661) [ClassicSimilarity], result of:
          0.021018492 = score(doc=4661,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.35814235 = fieldWeight in 4661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4661)
        0.0056660464 = product of:
          0.016998138 = sum of:
            0.016998138 = weight(_text_:22 in 4661) [ClassicSimilarity], result of:
              0.016998138 = score(doc=4661,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.2708308 = fieldWeight in 4661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4661)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Content
    Enthält die Beiträge: EPPING, B.: 100 Millionen Zellen und ein bißchen Strom (Informationsfluß); FLESCHNER, F.: Nicht ganz richtig im Kopf (Hirnschäden); RUBNER, J.: Auf der Spur des kleinen Unterschieds (Hormonhaushalt); REYE, B.: Blinde sehen, Lahme gehen (Neuroimplantate); EBERT, U.: Die Neuro-Industrie (Erkennungsdienst); SCHMITZ, U.: Die Kraft der Gedanken (Mindpower); ZICK, M.: Das Rätsel des Bewußtseins (Geisterjagd); N.N.: Das Beste aus zwei Welten (Online-Medizin); HÄGELE, M.: Literatur-Recherche auf dem Prüfstand (KnowledgeFinder); N.N.: Die Arzthelfer; N.N.: Mit der Stange im Nebel (Internet-Adressen)
    Date
    22. 7.2000 18:45:51
  13. Vogt, T.: ¬Die Transformation des renommierten Informationsservices zbMATH zu einer Open Access-Plattform für die Mathematik steht vor dem Abschluss. (2020) 0.01
    0.008368104 = product of:
      0.12552156 = sum of:
        0.075312935 = product of:
          0.15062587 = sum of:
            0.15062587 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.15062587 = score(doc=31,freq=2.0), product of:
                0.17476578 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.017922899 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.5 = coord(1/2)
        0.050208624 = product of:
          0.15062587 = sum of:
            0.15062587 = weight(_text_:c3 in 31) [ClassicSimilarity], result of:
              0.15062587 = score(doc=31,freq=2.0), product of:
                0.17476578 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.017922899 = queryNorm
                0.8618728 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=31)
          0.33333334 = coord(1/3)
      0.06666667 = coord(2/30)
    
    Content
    "Mit Beginn des Jahres 2021 wird der umfassende internationale Informationsservice zbMATH in eine Open Access-Plattform überführt. Dann steht dieser bislang kostenpflichtige Dienst weltweit allen Interessierten kostenfrei zur Verfügung. Die Änderung des Geschäftsmodells ermöglicht, die meisten Informationen und Daten von zbMATH für Forschungszwecke und zur Verknüpfung mit anderen nicht-kommerziellen Diensten frei zu nutzen, siehe: https://www.mathematik.de/dmv-blog/2772-transformation-von-zbmath-zu-einer-open-access-plattform-f%C3%BCr-die-mathematik-kurz-vor-dem-abschluss."
  14. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.01
    0.008358148 = product of:
      0.06268611 = sum of:
        0.02226585 = product of:
          0.0445317 = sum of:
            0.0445317 = weight(_text_:industrie in 3780) [ClassicSimilarity], result of:
              0.0445317 = score(doc=3780,freq=2.0), product of:
                0.12019911 = queryWeight, product of:
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.017922899 = queryNorm
                0.37048277 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.7064548 = idf(docFreq=146, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.5 = coord(1/2)
        0.01643512 = weight(_text_:neue in 3780) [ClassicSimilarity], result of:
          0.01643512 = score(doc=3780,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.22507115 = fieldWeight in 3780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.015013208 = weight(_text_:u in 3780) [ClassicSimilarity], result of:
          0.015013208 = score(doc=3780,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.25581595 = fieldWeight in 3780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3780)
        0.0089719305 = product of:
          0.013457895 = sum of:
            0.0013163678 = weight(_text_:a in 3780) [ClassicSimilarity], result of:
              0.0013163678 = score(doc=3780,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.06369744 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
            0.012141528 = weight(_text_:22 in 3780) [ClassicSimilarity], result of:
              0.012141528 = score(doc=3780,freq=2.0), product of:
                0.06276294 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.017922899 = queryNorm
                0.19345059 = fieldWeight in 3780, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3780)
          0.6666667 = coord(2/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
    Date
    19. 8.2017 9:24:22
    Type
    a
  15. Hartsch, A.: ¬Das Hybride als Normalität : digitaler Wandel und analoge Herkunftswelten (2016) 0.01
    0.007991326 = product of:
      0.07991326 = sum of:
        0.046759073 = weight(_text_:post in 4552) [ClassicSimilarity], result of:
          0.046759073 = score(doc=4552,freq=2.0), product of:
            0.10409636 = queryWeight, product of:
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.017922899 = queryNorm
            0.4491903 = fieldWeight in 4552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.808009 = idf(docFreq=360, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4552)
        0.032539878 = weight(_text_:neue in 4552) [ClassicSimilarity], result of:
          0.032539878 = score(doc=4552,freq=4.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.44561815 = fieldWeight in 4552, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4552)
        6.14305E-4 = product of:
          0.001842915 = sum of:
            0.001842915 = weight(_text_:a in 4552) [ClassicSimilarity], result of:
              0.001842915 = score(doc=4552,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.089176424 = fieldWeight in 4552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4552)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Diskursanalytisch untersucht werden konzeptionelle Verunsicherungen bei der Medienausrichtung von Bibliotheken, die von einer unsteten, auf Durchsetzungserfolge bauenden Orientierung an unbewiesenem Gleichzeitigen oder Zukünftigen herzurühren scheinen. Dabei gerät Bewiesenes unter Begründungszwänge und Verdrängungsdruck. Paradigmatisch dafür wird der Satz ausgemacht: 'Das Neue ist das Gute', von dem eine Steigerungsform, nun unter gänzlichem Verzicht auf Qualitätsurteile existiert: 'Das Neue ist das Selbstverständliche'. Das wird hier hinterfragt mit transdisziplinärem Blick auf Diskussionsbeiträge hauptsächlich aus 2014 bis 2016. Herausgearbeitet wird ein informationswissenschaftliches Plädoyer für Mediensymbiosen aller Art, auf die das hybride Bibliotheksverständnis - in den Geisteswissenschaften zumal - selbstredend seit Jahrzehnten zu Recht aufsetzt und dessen Verstetigung dringend empfohlen wird.
    Content
    Vgl.: https://edoc.hu-berlin.de/bitstream/handle/18452/9756/hartsch.pdf?sequence=1&isAllowed=y. Beitrag in einerm Schwerpunkt "Post-Digital Humanities".
  16. Regeln für den Schlagwortkatalog (RSWK) (2005) 0.01
    0.007962884 = product of:
      0.059721626 = sum of:
        0.02145709 = product of:
          0.04291418 = sum of:
            0.04291418 = weight(_text_:dienstleistungen in 3283) [ClassicSimilarity], result of:
              0.04291418 = score(doc=3283,freq=2.0), product of:
                0.10771505 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.017922899 = queryNorm
                0.39840466 = fieldWeight in 3283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3283)
          0.5 = coord(1/2)
        0.019722143 = weight(_text_:neue in 3283) [ClassicSimilarity], result of:
          0.019722143 = score(doc=3283,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.27008536 = fieldWeight in 3283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=3283)
        0.018015848 = weight(_text_:u in 3283) [ClassicSimilarity], result of:
          0.018015848 = score(doc=3283,freq=4.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.30697915 = fieldWeight in 3283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=3283)
        5.265472E-4 = product of:
          0.0015796415 = sum of:
            0.0015796415 = weight(_text_:a in 3283) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=3283,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 3283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3283)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Content
    Die Ergänzungslieferung enthält u. a. Änderungen an den § 8,2 (hier wurde die Priorisierung der Individualnamen zu Ungunsten der Allgemeinbegriffe aufgehoben), § 12,8 (Wegfall der Pauschalverweisungen), § 701 (durch eine neue Darstellung der Hinweissätze sind auch die Mundarten betroffen) sowie § 730 (Bauwerke). Nach einem im Sommer 2004 durchgeführten öffentlichen Stellungnahmeverfahren, für das die vorgesehenen Entwürfe auf dem FTP-Server Der Deutschen Bibliothek zur Verfügung standen, und einer Beratung in der Expertengruppe RSWK-SWD hat der Standardisierungsausschuss die 3. RSWK-Ergänzungslieferung mit den o. g. Neuregelungen genehmigt. Sie können die Papierausgabe der 3. RSWK-Ergänzungslieferung zur 3. Auflage des Grundwerks RSWK zum Preis von EUR 13,00 (zuzüglich Porto) beziehen über: Die Deutsche Bibliothek, Zentrale bibliografische Dienstleistungen, Adickesallee 1, 60322 Frankfurt, Fax: 069/15 25-16 36, E-Mail: junker@dbf.ddb.de.
    Issue
    3., überarb. u. erw. Aufl.; 3. RSWK-Ergänzungslieferung zur 3. Auflage
  17. Fact-Checking: Die unkritische Gruppe : Soziale Gesellschaft macht anfälliger für Fake News (2017) 0.01
    0.007907701 = product of:
      0.059307754 = sum of:
        0.019722143 = weight(_text_:neue in 3671) [ClassicSimilarity], result of:
          0.019722143 = score(doc=3671,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.27008536 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.046875 = fieldNorm(doc=3671)
        0.026319932 = weight(_text_:medien in 3671) [ClassicSimilarity], result of:
          0.026319932 = score(doc=3671,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.31200847 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.046875 = fieldNorm(doc=3671)
        0.012739129 = weight(_text_:u in 3671) [ClassicSimilarity], result of:
          0.012739129 = score(doc=3671,freq=2.0), product of:
            0.058687534 = queryWeight, product of:
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.017922899 = queryNorm
            0.21706703 = fieldWeight in 3671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2744443 = idf(docFreq=4547, maxDocs=44218)
              0.046875 = fieldNorm(doc=3671)
        5.265472E-4 = product of:
          0.0015796415 = sum of:
            0.0015796415 = weight(_text_:a in 3671) [ClassicSimilarity], result of:
              0.0015796415 = score(doc=3671,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.07643694 = fieldWeight in 3671, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3671)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Von wegen viele Augen sehen mehr als zwei: Wer sich in Gesellschaft anderer Menschen befindet, ist offenbar weniger kritisch als alleine. Das legt nun eine Reihe von Experimenten nahe. Demnach hinterfragten Probanden Informationen und Aussagen aus Nachrichtentexten seltener, wenn sie sich als Teil einer Gruppe wähnten. Dies traf sogar auf rein virtuelle Gesellschaft in sozialen Medien zu. Das beobachtete Phänomen könnte deshalb helfen zu erklären, warum sich Fake News in sozialen Netzwerken so schnell und scheinbar ungefiltert verbreiten. "Wir wissen kaum etwas darüber, wie neue Informationen in diesen Kontexten wahrgenommen werden und vor allem, ob und wie sie überprüft werden", konstatieren Youjung Jun und ihre Kollegen von der Columbia University in New York. Gehen Menschen mit Nachrichten und Gerüchten in der Umgebung von sozialen Netzwerken zum Beispiel anders um als in anderen Situationen? Genau diese Frage haben die Forscher nun untersucht - und Erstaunliches festgestellt.
    Content
    Bezugnahme auf: Jun, Y., R. Meng u. G. Venkataramani Johar: Perceived social presence reduces fact-checking. In: Proceedings of the National Academy of Sciences, 2017 [doi: 10.1073/pnas.1700175114].
    Type
    a
  18. Suchsland, R.: Kritik der paranoiden Vernunft (2020) 0.01
    0.0077614374 = product of:
      0.077614374 = sum of:
        0.03287024 = weight(_text_:neue in 322) [ClassicSimilarity], result of:
          0.03287024 = score(doc=322,freq=2.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.4501423 = fieldWeight in 322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        0.043866552 = weight(_text_:medien in 322) [ClassicSimilarity], result of:
          0.043866552 = score(doc=322,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.5200141 = fieldWeight in 322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=322)
        8.775785E-4 = product of:
          0.0026327355 = sum of:
            0.0026327355 = weight(_text_:a in 322) [ClassicSimilarity], result of:
              0.0026327355 = score(doc=322,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.12739488 = fieldWeight in 322, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=322)
          0.33333334 = coord(1/3)
      0.1 = coord(3/30)
    
    Abstract
    Allgemeine Verunsicherung im Informationsdschungel: Schwarze Utopien und neue Ordnung am Abgrund des Chaos.
    Series
    Telepolis: Kultur und Medien
    Type
    a
  19. Verbaere, B.: Algorithmen sind der Schlüssel zur Effizienz : zehn Vorhersagen für das nächste Jahrzehnt, Flughäfen der Zukunft (2020) 0.01
    0.007643985 = product of:
      0.057329886 = sum of:
        0.029704137 = weight(_text_:einzelne in 5908) [ClassicSimilarity], result of:
          0.029704137 = score(doc=5908,freq=6.0), product of:
            0.10548963 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.017922899 = queryNorm
            0.2815835 = fieldWeight in 5908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        0.008940453 = product of:
          0.017880905 = sum of:
            0.017880905 = weight(_text_:dienstleistungen in 5908) [ClassicSimilarity], result of:
              0.017880905 = score(doc=5908,freq=2.0), product of:
                0.10771505 = queryWeight, product of:
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.017922899 = queryNorm
                0.16600193 = fieldWeight in 5908, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.009912 = idf(docFreq=294, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5908)
          0.5 = coord(1/2)
        0.018375022 = weight(_text_:neue in 5908) [ClassicSimilarity], result of:
          0.018375022 = score(doc=5908,freq=10.0), product of:
            0.07302189 = queryWeight, product of:
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.017922899 = queryNorm
            0.2516372 = fieldWeight in 5908, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.074223 = idf(docFreq=2043, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5908)
        3.102709E-4 = product of:
          9.308127E-4 = sum of:
            9.308127E-4 = weight(_text_:a in 5908) [ClassicSimilarity], result of:
              9.308127E-4 = score(doc=5908,freq=4.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.045040898 = fieldWeight in 5908, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5908)
          0.33333334 = coord(1/3)
      0.13333334 = coord(4/30)
    
    Abstract
    Das Nutzererlebnis im Flughafen hat sich in den vergangenen zehn Jahren mit der Einführung biometrischer Sicherheitstechnik, mobilen Check-ins und der Gepäckverfolgung drastisch gewandelt. Im nächsten Jahrzehnt erleben wir ein exponentiell beschleunigtes Tempo des Wandels, da wir für "Digital Native Passagiere und Mitarbeiter" transformative Technologien einführen - von fliegenden Taxis bis zu eigenständig denkenden Flughäfen. Laut der International Air Transport Association (IATA) verdoppeln sich die Passagierzahlen in nächsten zwanzig Jahren, doch die Flughäfen wachsen nicht mit. Fluggäste erwarten jedoch zu Recht eine reibungslose und angenehme Abfertigung am Flughafen. Diesen geschmeidigen Ablauf können wir nur sicherstellen, indem wir neue Technologien entwickeln und einführen, die nicht nur die Effizienz, sondern auch den Komfort für die Passagiere steigern. Im Folgenden zehn Vorhersagen, wie die Zukunft in zehn Jahren aussehen wird.
    Content
    1. Sicherheit wird in eine reibungslose Reise integriert. In Zukunft bedeutet Sicherheit, dass man einen Korridor entlanggeht. Man muss dann nicht mehr Mantel, Schuhe und Gürtel ablegen oder kleine Fläschchen in kleine Beutel stecken. Menschenschlangen sind dann ebenfalls passé. Die Passagiere und ihre Gepäckstücke werden automatisch erkannt, wenn sie automatisierte Kontrollpunkte passieren. Feste Kontrollpunkte werden durch Sensoren ersetzt - das physische Überprüfen von Dokumenten gehört der Vergangenheit an. 2. Passagiere verwalten ihre digitale Identität selbst. Mit der Einführung der selbstbestimmten digitalen Identität und dauerhafter Reisemarken haben Passagiere die Kontrolle darüber, welche Aspekte ihrer Identität während der Reise zu welchem Zweck preisgegeben werden. Im Flughafen der Zukunft werden Risiken laufend von spezieller Künstlicher Intelligenz (KI) bewertet, wobei die digitale Identität jedes einzelnen Passagiers geprüft wird. Die sensiblen persönlichen Daten werden nur noch von den betreffenden staatlichen Behörden genutzt, die automatisierte miteinander vernetzte Systeme nutzen, um einzelne Reiseschritte zu genehmigen - bzw. in bestimmten Fällen nicht zu genehmigen. Fluggesellschaften sind nicht länger für die Verarbeitung der Passagierdaten und die Sicherung der Staatsgrenzen verantwortlich.
    3. Reiseschritte werden dezentralisiert. Alles bekommt ein Etikett: Personen, ihre Gepäckstücke und das Frachtgepäck. Und bei allen wird die ganze Zeit über nachvollzogen, welche Verkehrsmittel auch immer sie auf dem Flughafengelände nutzen. Dies bedeutet, dass Reisevisa und Zoll-Checks schon vor dem Flug vorgenommen werden können und man am Flughafen selbst Zeit spart. Auch die Gepäckabgabe und -annahme wird dort angeboten, wo es für den Fluggast am praktischsten ist, zum Beispiel am Bahnhof. 4. Flughäfen sind hochgradig vernetzt. Das neue Zeitalter miteinander vernetzter Flughäfen wird von immer günstigeren Sensoren, weniger spezieller Hardware und neuen Data Lakes gesteuert, die von 5G-Geräten gespeist werden. Die dazu erforderlichen Daten werden über softwaredefinierte Netzwerke erfasst, gesammelt und analysiert, um den Flughafen hocheffizient zu machen und Passagieren ein deutlich besseres Erlebnis zu ermöglichen.
    5. Flughäfen denken eigenständig. Der Schlüssel zur Effizienz sind Algorithmen der künstlichen Intelligenz (KI), wobei eine ausgeklügelte KI zum Erfolgsrezept für Flughäfen wird. Flughäfen nutzen die Digital-Twin-Technologie, um den Echtzeitbetrieb für alle Interessenvertreter zu realisieren und die operative Effizienz sowie das Fluggasterlebnis zu verbessern. Ein Digital Twin ist eine fortgeschrittene Computersimulation, die Daten aus dem gesamten Flughafen- und Fluglinienbetrieb extrahiert, um mit ihrer Hilfe zu veranschaulichen, zu simulieren und vorherzusagen, was als Nächstes geschieht. Diese Prognosedaten werden anschließend dazu verwendet, betriebliche Aktivitäten zu bündeln und nach Möglichkeit zu automatisieren. Automatisierte Meldungen können beispielsweise so aussehen: "Aufgrund von Verspätung landen zwei A380 gleichzeitig: Dafür sorgen, dass genügend Personal an den Einreiseschaltern bereitsteht." Oder: "Negatives Feedback zu den Toiletten im zweiten Stock: Reinigungspersonal senden." Ein schneller Datenaustausch ermöglicht, dass man sich proaktiv auf jede Sachlage einstellen kann und Flughäfen und Fluggesellschaften besser, schneller und genauer planen. 6. Zusammenarbeit wird der Schlüssel zum Erfolg. Für jede einzelne Reise gibt es mindestens zehn unterschiedliche Einheiten, die an der erfolgreichen praktischen Umsetzung beteiligt sind. Die einzige Möglichkeit, alle erforderlichen Daten zu sammeln, um die Transportwege reibungslos zu gestalten, ist eine enge Zusammenarbeit aller auf dem Flughafen tätigen Mitarbeiter - des Flughafenpersonals, des Fluglinienpersonals, derBehördenmitarbeiter, des Bodenpersonals sowie der Einzelhandels- und Restaurantmitarbeiter. Darüber hinaus ist die Zusammenarbeit aller Beteiligten im gesamten Ökosystem der miteinander vernetzten Flughäfen gefragt. Überall in diesem riesigen Netzwerk werden betriebliche Daten unter Berücksichtigung von Datenschutzvorschriften ausgetauscht, wobei Interessenvertreter lediglich einzelne für sie relevante Datenquellen austauschen dürfen. Auf diese Weise werden Flughäfen viel effizienter, indem beispielsweise Passagierströme digital gesteuert werden und dafür gesorgt wird, dass die Flugzeuge möglichst bald wieder abheben. Neueste Technologien wie Blockchain erleichtern den abgesicherten Datenaustausch ungemein.
    7. Flughäfen sind äußerst automatisiert. Die schnelle mobile Vernetzung am Flughafen ist für sein Leistungsvermögen von zentraler Bedeutung. Flughäfen werden immer mehr in Echtzeit betrieben, sodass Automatisierung und Selbstbedienung alle Abläufe rationalisieren. Miteinander vernetzte, automatisierte und autonome Fahrzeuge und Roboter sind auf dem gesamten Flughafengelände allgegenwärtig. Die Automatisierung ermöglicht auch eine effizientere gemeinsame Aufteilung und Nutzung der Ressourcen. Eine Vielzahl von Objekten - vom Gepäck bis zum Flugzeugschlepper - sind über 5G-Netze miteinander verbunden, die riesige Datenmengen liefern und Echtzeit-, Vorhersage- und historische Ansichten des Flughafenbetriebs liefern. 8. Flughäfen passen sich den Bedürfnissen der Passagiere an. Die schnelle, reibungslose Reise zum und im Flughafen sorgt dafür, dass einige Einnahmequellen, etwa Parkgebühren, geringer werden oder ganz entfallen. Deshalb werden Flughäfen sich neue Möglichkeiten einfallen lassen müssen, um diese Einnahmequellen zu ersetzen und den Passagieren ein interessantes Reiseerlebnis zu bieten. Personalisierung heißt das neue Zauberwort - dass man jedem einzelnen Fluggast das anbietet, was er braucht, und zwar dann, wenn er es braucht, und das nicht nur auf dem Flughafengelände, sondern vom Reisebeginn bis zum Reiseziel. Denkbare Beispiele sind ein vom Flughafen betriebener Limousinen-Fahrdienst einschließlich Gepäckprüfung beim Gast zu Hause, im Büro oder im Hotel und besonders schnelle Reisegenehmigungen und Erleichterungen für Vielflieger.
    9. Mobilität wird zur Dienstleistung auf Anfrage. Flughäfen werden zu riesigen Park-und-Ride-Zentren, die Zugang zu einer breiten Palette von Transportmöglichkeiten bieten. Bis 2030 wird es Innovationen wie Flugtaxis geben, die Passagiere viel wirtschaftlicher vom und zum Flughafen bringen. Sie können sogar am Wettbewerb auf Kurzstrecken teilnehmen. Damit machen wir das Fliegen wirklich für jeden interessant. 10.Für alles, was im Flughafen geschieht, gibt es eine Schnittstelle. Da die Reisenden von morgen Digital Natives sind, müssen auch die Flughafenbetreiber mit der digitalen Technik vertraut sein. Eine komplexe Institution wie ein Flughafen wird in digitale Dienstleistungen aufgeteilt, die als Anwendungsprogrammierschnittstellen (APIs) miteinander geteilt werden. So entsteht ein Ökosystem, das Zusammenarbeit und Neuerungen hervorbringt und für alle leicht nutzbar ist. Beispielsweise ermöglichen KI und neue Syntaxen die Anfragen nach branchenspezifischen Erkenntnissen in menschlicher Sprache, etwa so: "Steht eine rosa Reisetasche an Gate B34?" Oder: "Die Schlange an Eingang A wird zu lang, schickt mehr Taxis."
    Type
    a
  20. Bredemeier, W.: Was sagt uns die Debatte zu "Fake News" über die Qualität unserer etablierten Medien? : Medienkritik in der Zeit alternativer Fakten (2017) 0.01
    0.007420911 = product of:
      0.07420911 = sum of:
        0.01225174 = product of:
          0.02450348 = sum of:
            0.02450348 = weight(_text_:29 in 3661) [ClassicSimilarity], result of:
              0.02450348 = score(doc=3661,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 3661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3661)
          0.5 = coord(1/2)
        0.043866552 = weight(_text_:medien in 3661) [ClassicSimilarity], result of:
          0.043866552 = score(doc=3661,freq=2.0), product of:
            0.084356464 = queryWeight, product of:
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.017922899 = queryNorm
            0.5200141 = fieldWeight in 3661, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7066307 = idf(docFreq=1085, maxDocs=44218)
              0.078125 = fieldNorm(doc=3661)
        0.01809081 = product of:
          0.027136216 = sum of:
            0.0026327355 = weight(_text_:a in 3661) [ClassicSimilarity], result of:
              0.0026327355 = score(doc=3661,freq=2.0), product of:
                0.020665944 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.017922899 = queryNorm
                0.12739488 = fieldWeight in 3661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3661)
            0.02450348 = weight(_text_:29 in 3661) [ClassicSimilarity], result of:
              0.02450348 = score(doc=3661,freq=2.0), product of:
                0.063047156 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.017922899 = queryNorm
                0.38865322 = fieldWeight in 3661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3661)
          0.6666667 = coord(2/3)
      0.1 = coord(3/30)
    
    Date
    29. 5.2017 10:43:39
    Type
    a

Languages

Types

  • a 1003
  • i 64
  • r 29
  • m 26
  • x 22
  • s 21
  • n 20
  • b 17
  • p 17
  • l 3
  • More… Less…

Themes