Search (2644 results, page 1 of 133)

  • × year_i:[2010 TO 2020}
  • × type_ss:"a"
  1. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.31
    0.3139503 = product of:
      0.8372008 = sum of:
        0.034887902 = product of:
          0.10466371 = sum of:
            0.10466371 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.10466371 = score(doc=484,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.14801683 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.14801683 = score(doc=484,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.017521333 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.017521333 = score(doc=484,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 484, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.14801683 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.14801683 = score(doc=484,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.027186157 = weight(_text_:der in 484) [ClassicSimilarity], result of:
          0.027186157 = score(doc=484,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.55406165 = fieldWeight in 484, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.14801683 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.14801683 = score(doc=484,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.14801683 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.14801683 = score(doc=484,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.14801683 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.14801683 = score(doc=484,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.017521333 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.017521333 = score(doc=484,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 484, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.375 = coord(9/24)
    
    Abstract
    Eine der wesentlichen Aufgaben als Fachreferent*in ist die inhaltliche Erschließung der neuerworbenen Literatur, sowie die Begutachtung und Auswahl der neu erschienenen Werke in den jeweiligen Fachgebieten hinsichtlich der Relevanz für die eigenen Sammlungen gemäß dem Sammlungsprofil der TU Wien Bibliothek. Im Zuge der Corona-Krise wurde die herkömmliche Arbeitsweise in der Sacherschließung beeinträchtigt, und es haben sich neue Herausforderungen, aber auch Möglichkeiten ergeben. Neben der fehlenden Autopsie der Literatur leidet auch die Sichtung und Erwerbung neuer Literatur unter der physischen Abwesenheit vom Arbeitsplatz bzw. der entsprechenden technischen Infrastruktur. Auch der persönliche Austausch mit den Kolleg*innen wurde deutlich erschwert. Neben den Schwierigkeiten wurden aber auch die neuen Handlungsoptionen auf beruflicher und individueller Ebene positiv gesehen. In dem Artikel werden unsere individuellen Erfahrungen an der TU Wien Bibliothek sowie Ausblicke in die Zukunft wiedergegeben.
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 73(2020) H.3/4, S.496-503
  2. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.25
    0.24986939 = product of:
      0.74960816 = sum of:
        0.13955161 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.13955161 = score(doc=2188,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.019074813 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.019074813 = score(doc=2188,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 2188, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.13955161 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.13955161 = score(doc=2188,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.013700536 = weight(_text_:der in 2188) [ClassicSimilarity], result of:
          0.013700536 = score(doc=2188,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 2188, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.13955161 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.13955161 = score(doc=2188,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.13955161 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.13955161 = score(doc=2188,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.13955161 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.13955161 = score(doc=2188,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.019074813 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.019074813 = score(doc=2188,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 2188, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.33333334 = coord(8/24)
    
    Abstract
    Wissenschaftliche Karrieren und Publikationen benötigen Reputation und möglichst viel Beachtung. Literatur, die diese Aufmerksamkeit findet, wird - so die gängige Annahme - häufig zitiert. Ausgehend von dieser Überlegung wurden Verfahren der Zitationsmessung entwickelt, die Auskunft über die Relevanz oder (wie im- und explizit oft auch postuliert wird) gar die Qualität einer Publikation oder eines Wissenschaftlers geben sollen.
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  3. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.14
    0.13955161 = product of:
      0.55820644 = sum of:
        0.034887902 = product of:
          0.10466371 = sum of:
            0.10466371 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.10466371 = score(doc=400,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.10466371 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.10466371 = score(doc=400,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.10466371 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.10466371 = score(doc=400,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.10466371 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.10466371 = score(doc=400,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.10466371 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.10466371 = score(doc=400,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.10466371 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.10466371 = score(doc=400,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.25 = coord(6/24)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  4. Neunzert, H.: Mathematische Modellierung : ein "curriculum vitae" (2012) 0.12
    0.12091572 = product of:
      0.48366287 = sum of:
        0.1305354 = product of:
          0.39160615 = sum of:
            0.39160615 = weight(_text_:c3 in 2255) [ClassicSimilarity], result of:
              0.39160615 = score(doc=2255,freq=4.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.8283083 = fieldWeight in 2255, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2255)
          0.33333334 = coord(1/3)
        0.16759667 = weight(_text_:didaktik in 2255) [ClassicSimilarity], result of:
          0.16759667 = score(doc=2255,freq=2.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            1.0057728 = fieldWeight in 2255, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.09375 = fieldNorm(doc=2255)
        0.020231893 = weight(_text_:und in 2255) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2255,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2255, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2255)
        0.014531613 = weight(_text_:der in 2255) [ClassicSimilarity], result of:
          0.014531613 = score(doc=2255,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 2255, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=2255)
        0.1305354 = product of:
          0.39160615 = sum of:
            0.39160615 = weight(_text_:c3 in 2255) [ClassicSimilarity], result of:
              0.39160615 = score(doc=2255,freq=4.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.8283083 = fieldWeight in 2255, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.09375 = fieldNorm(doc=2255)
          0.33333334 = coord(1/3)
        0.020231893 = weight(_text_:und in 2255) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2255,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2255, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2255)
      0.25 = coord(6/24)
    
    Content
    Vortrag auf der Tagung "Geschichte und Modellierung", Jena, 3. Februar 2012. Vgl. unter: http://www.fmi.uni-jena.de/Fakult%C3%A4t/Institute+und+Abteilungen/Abteilung+f%C3%BCr+Didaktik/Kolloquien.html?highlight=neunzert.
  5. Yurt, M.; Simon, P.: Stand der Vermittlung von Informationskompetenz an deutschen Bibliotheken : eine exemplarische Untersuchung (2015) 0.11
    0.107960135 = product of:
      0.28789368 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 2239) [ClassicSimilarity], result of:
              0.018824775 = score(doc=2239,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 2239, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2239)
          0.33333334 = coord(1/3)
        0.020231893 = weight(_text_:und in 2239) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2239,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2239, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.07613816 = weight(_text_:methodik in 2239) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2239,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.011167361 = weight(_text_:des in 2239) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2239,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.037749823 = weight(_text_:fragen in 2239) [ClassicSimilarity], result of:
          0.037749823 = score(doc=2239,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 2239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.022976499 = weight(_text_:der in 2239) [ClassicSimilarity], result of:
          0.022976499 = score(doc=2239,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46826762 = fieldWeight in 2239, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.07613816 = weight(_text_:methodik in 2239) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2239,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.020231893 = weight(_text_:und in 2239) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2239,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2239, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2239)
        0.016984947 = product of:
          0.033969894 = sum of:
            0.033969894 = weight(_text_:deutschland in 2239) [ClassicSimilarity], result of:
              0.033969894 = score(doc=2239,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.32018375 = fieldWeight in 2239, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2239)
          0.5 = coord(1/2)
      0.375 = coord(9/24)
    
    Abstract
    Der Begriff Informationskompetenz definiert Techniken und Methoden der Recherche, Beurteilung und Nutzung von Informationen und gilt in der modernen Informa­tionsgesellschaft als Schlüsselkompetenz. Die deutsche Übersetzung des aus dem angloamerikanischen Raum stammenden "Information Literacy" hat sich in den vergangenen Jahren auch in Deutschland etabliert. Auf Basis einer exemplarischen Untersuchung wird der Stand der Vermittlung von Informationskompetenz an Bibliotheken in vier deutschen Millionenstädten beschrieben. Für die Untersuchung wurden nach vorangegangenen Online-Recherchen Kriterien festgelegt, nach denen die Auswahl der untersuchten Bibliotheken erfolgte. Die Untersuchung erfolgte mit einem Fragebogen, dessen Fragen die Bereiche "Allgemein", "Personal", "Bildungsan­gebot" und "Methodik" hinsichtlich der Vermittlung von Informationskompetenz durch Bibliotheken abdecken. Die Sondierung erfolgte im September und Oktober 2014 durch die schriftliche Beantwortung der Fragebögen durch die zuständigen Bibliothekare. Die Ergebnisse dieser exemplarischen Befragung offenbaren, dass Informationskompetenz an allen fünf untersuchten Bibliotheken aktiv in Form von Schulungen bzw. Kursen vermittelt wird und dabei unterschiedliche Schwerpunkte gesetzt werden. Auffällige Gemeinsamkeit der Befragung sind die fehlende einheitliche Definition von Informationskompetenz und das Fehlen von Standards zur Vermittlung von Informationskompetenz.
    Source
    Information - Wissenschaft und Praxis. 66(2015) H.4, S.242-254
  6. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.07
    0.06529307 = product of:
      0.22386198 = sum of:
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.018164515 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.018164515 = score(doc=3068,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 3068, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.06344847 = weight(_text_:methodik in 3068) [ClassicSimilarity], result of:
          0.06344847 = score(doc=3068,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.0075077773 = product of:
          0.015015555 = sum of:
            0.015015555 = weight(_text_:29 in 3068) [ClassicSimilarity], result of:
              0.015015555 = score(doc=3068,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19432661 = fieldWeight in 3068, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
        0.021492256 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.021492256 = score(doc=3068,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.028308243 = product of:
          0.056616485 = sum of:
            0.056616485 = weight(_text_:deutschland in 3068) [ClassicSimilarity], result of:
              0.056616485 = score(doc=3068,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.53363955 = fieldWeight in 3068, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3068)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
    Source
    Young information scientists. 1(2016), S.13-29
  7. Kasprzik, A.: Automatisierte und semiautomatisierte Klassifizierung : eine Analyse aktueller Projekte (2014) 0.06
    0.055782747 = product of:
      0.22313099 = sum of:
        0.020231893 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2470,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07613816 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2470,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.011167361 = weight(_text_:des in 2470) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2470,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.019223517 = weight(_text_:der in 2470) [ClassicSimilarity], result of:
          0.019223517 = score(doc=2470,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 2470, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.07613816 = weight(_text_:methodik in 2470) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2470,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2470, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
        0.020231893 = weight(_text_:und in 2470) [ClassicSimilarity], result of:
          0.020231893 = score(doc=2470,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 2470, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2470)
      0.25 = coord(6/24)
    
    Abstract
    Das sprunghafte Anwachsen der Menge digital verfügbarer Dokumente gepaart mit dem Zeit- und Personalmangel an wissenschaftlichen Bibliotheken legt den Einsatz von halb- oder vollautomatischen Verfahren für die verbale und klassifikatorische Inhaltserschließung nahe. Nach einer kurzen allgemeinen Einführung in die gängige Methodik beleuchtet dieser Artikel eine Reihe von Projekten zur automatisierten Klassifizierung aus dem Zeitraum 2007-2012 und aus dem deutschsprachigen Raum. Ein Großteil der vorgestellten Projekte verwendet Methoden des Maschinellen Lernens aus der Künstlichen Intelligenz, arbeitet meist mit angepassten Versionen einer kommerziellen Software und bezieht sich in der Regel auf die Dewey Decimal Classification (DDC). Als Datengrundlage dienen Metadatensätze, Abstracs, Inhaltsverzeichnisse und Volltexte in diversen Datenformaten. Die abschließende Analyse enthält eine Anordnung der Projekte nach einer Reihe von verschiedenen Kriterien und eine Zusammenfassung der aktuellen Lage und der größten Herausfordungen für automatisierte Klassifizierungsverfahren.
  8. Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010) 0.05
    0.05495512 = product of:
      0.18841757 = sum of:
        0.018849954 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4315,freq=80.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.04486484 = weight(_text_:methodik in 4315) [ClassicSimilarity], result of:
          0.04486484 = score(doc=4315,freq=4.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.28246012 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.014714291 = weight(_text_:des in 4315) [ClassicSimilarity], result of:
          0.014714291 = score(doc=4315,freq=20.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24188907 = fieldWeight in 4315, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.022244297 = weight(_text_:fragen in 4315) [ClassicSimilarity], result of:
          0.022244297 = score(doc=4315,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.19889021 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.024029395 = weight(_text_:der in 4315) [ClassicSimilarity], result of:
          0.024029395 = score(doc=4315,freq=126.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.48972595 = fieldWeight in 4315, product of:
              11.224972 = tf(freq=126.0), with freq of:
                126.0 = termFreq=126.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.04486484 = weight(_text_:methodik in 4315) [ClassicSimilarity], result of:
          0.04486484 = score(doc=4315,freq=4.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.28246012 = fieldWeight in 4315, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
        0.018849954 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
          0.018849954 = score(doc=4315,freq=80.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 4315, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4315)
      0.29166666 = coord(7/24)
    
    Content
    "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
    Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
    Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
    Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
  9. Hütte, M.: Inhalte und Methoden der Vermittlung von Informationskompetenz (2010) 0.05
    0.05483971 = product of:
      0.21935885 = sum of:
        0.017521333 = weight(_text_:und in 4079) [ClassicSimilarity], result of:
          0.017521333 = score(doc=4079,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 4079, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.07613816 = weight(_text_:methodik in 4079) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4079,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.015793033 = weight(_text_:des in 4079) [ClassicSimilarity], result of:
          0.015793033 = score(doc=4079,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 4079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.016246837 = weight(_text_:der in 4079) [ClassicSimilarity], result of:
          0.016246837 = score(doc=4079,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 4079, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.07613816 = weight(_text_:methodik in 4079) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4079,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4079, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
        0.017521333 = weight(_text_:und in 4079) [ClassicSimilarity], result of:
          0.017521333 = score(doc=4079,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 4079, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4079)
      0.25 = coord(6/24)
    
    Abstract
    Der in Definitionen, Modellen und Standards dargelegte umfassende Anspruch an Konzepte zur Vermittlung von lnformationskompetenz für Schüler und Studierende lässt sich in der Praxis einer Hochschulbibliothek aufgrund des Zeitbedarfs nur in mehrtägigen Kompaktkursen bzw. semesterbegleitenden Veranstaltungen vermitteln. Sofern nicht curricular verankert, lässt sich der Aufwand für solche Veranstaltungen allerdings in den wenigsten Fällen rechtfertigen. Die meisten Bibliotheken, die sich als Teaching Libraries verstehen, versuchen deshalb Informationskompetenz im Rahmen eines modularen Gesamtkonzepts schrittweise zu vermitteln. Zu "klassischen" bibliotheks- und literaturbezogenen Inhalten treten dabei neue wie Wissenschaftliches Zitieren oder Elektronisches Publizieren. Auch hinsichtlich der didaktischen Methodik hat es Veränderungen in den Veranstaltungskonzepten vieler Bibliotheken gegeben. Konstruktivistische Methoden, bei denen die Lehrkraft stärker als Partner und Coach des Lernenden agiert, haben vielerorts die rein instruktionalen Formen abgelöst bzw. ergänzt. Es lohnt sich daher, mögliche Themen und Vermittlungsformen zu betrachten, um einen Überblick sowie Anregungen für die eigene Schulungspraxis zu gewinnen.
  10. Gasser, M.; Wanger, R.; Prada, I.: Wenn Algorithmen Zeitschriften lesen : vom Mehrwert automatisierter Textanreicherung (2018) 0.05
    0.05150503 = product of:
      0.20602012 = sum of:
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.011167361 = weight(_text_:des in 4598) [ClassicSimilarity], result of:
          0.011167361 = score(doc=4598,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.017797519 = weight(_text_:der in 4598) [ClassicSimilarity], result of:
          0.017797519 = score(doc=4598,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 4598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.07613816 = weight(_text_:methodik in 4598) [ClassicSimilarity], result of:
          0.07613816 = score(doc=4598,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 4598, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
        0.012389454 = weight(_text_:und in 4598) [ClassicSimilarity], result of:
          0.012389454 = score(doc=4598,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 4598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4598)
      0.25 = coord(6/24)
    
    Abstract
    In Zusammenarbeit mit dem Institut für Computerlinguistik der Universität Zürich (ICL UZH) lancierte die ETH-Bibliothek Zürich ein Pilotprojekt im Bereich automatisierter Textanreicherung. Grundlage für den Piloten bildeten Volltextdateien der Schweizer Zeitschriftenplattform E-Periodica. Anhand eines ausgewählten Korpus dieser OCR-Daten wurden mit automatisierten Verfahren Tests in den Bereichen OCR-Korrektur, Erkennung von Personen-, Orts- und Ländernamen sowie Verlinkung identifizierter Personen mit der Gemeinsamen Normdatei GND durchgeführt. Insgesamt wurden sehr positive Resultate erzielt. Das verwendete System dient nun als Grundlage für den weiteren Kompetenzausbau der ETH-Bibliothek auf diesem Gebiet. Das gesamte bestehende Angebot der Plattform E-Periodica soll automatisiert angereichert und um neue Funktionalitäten erweitert werden. Dies mit dem Ziel, Forschenden einen Mehrwert bei der Informationsbeschaffung zu bieten. Im vorliegenden Beitrag werden Projektinhalt, Methodik und Resultate erläutert sowie das weitere Vorgehen skizziert.
    Content
    Vortrag anlässlich des 107. Deutschen Bibliothekartages 2018 in Berlin, Themenkreis "Fokus Erschließen & Bewahren". https://www.o-bib.de/article/view/5382. https://doi.org/10.5282/o-bib/2018H4S181-192.
  11. Drees, B.: Zukunft der Informationsinfrastrukturen : das deutsche Bibliothekswesen im digitalen Zeitalter (2016) 0.05
    0.047998607 = product of:
      0.19199443 = sum of:
        0.022079403 = weight(_text_:und in 3202) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3202,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3202, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.022566179 = weight(_text_:des in 3202) [ClassicSimilarity], result of:
          0.022566179 = score(doc=3202,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 3202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.04404146 = weight(_text_:fragen in 3202) [ClassicSimilarity], result of:
          0.04404146 = score(doc=3202,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 3202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.020763772 = weight(_text_:der in 3202) [ClassicSimilarity], result of:
          0.020763772 = score(doc=3202,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 3202, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.022079403 = weight(_text_:und in 3202) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3202,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3202, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
        0.060464215 = sum of:
          0.03963154 = weight(_text_:deutschland in 3202) [ClassicSimilarity], result of:
            0.03963154 = score(doc=3202,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.3735477 = fieldWeight in 3202, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3202)
          0.020832673 = weight(_text_:22 in 3202) [ClassicSimilarity], result of:
            0.020832673 = score(doc=3202,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.2708308 = fieldWeight in 3202, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=3202)
      0.25 = coord(6/24)
    
    Abstract
    Seit dem Beginn des 21. Jahrhunderts beschäftigen sich viele wissenschaftspolitische Akteure mit Fragen zur Zukunft der Informationsinfrastrukturen in Deutschland. Als Resultat dieser Überlegungen liegen zahlreiche Empfehlungen, Positionspapiere und Stellungnahmen vor, die versuchen aktuelle Handlungsfelder zu identifizieren und Konzepte zu entwickeln, wie das wissenschaftliche Bibliothekswesen den Herausforderungen des digitalen Wandels begegnen kann. Der vorliegende Beitrag zeichnet diese Entwicklung der letzten zehn Jahre anhand einiger zentraler Empfehlungen nach und legt dabei das Hauptaugenmerk auf das Gesamtkonzept der Kommission Zukunft der Informationsinfrastruktur (KII) und die Empfehlungen des Wissenschaftsrats zu den Informationsinfrastrukturen 2020. Ferner werden gemeinsame Muster auf inhaltlich-thematischer und strukturell-organisatorischer Ebene identifiziert und vor dem Hintergrund föderaler Strukturen im deutschen Bildungs- und Wissenschaftssystem diskutiert.
    Date
    22. 6.2016 11:45:20
  12. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.047306977 = product of:
      0.18922791 = sum of:
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.025688507 = weight(_text_:der in 4793) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4793,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4793, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.00744024 = product of:
          0.01488048 = sum of:
            0.01488048 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01488048 = score(doc=4793,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  13. Thiessen, P.: ¬Die Empfehlungen des Wissenschaftsrates "zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020" : Inhalt und kritische Bewertung im Hinblick auf das wissenschaftliche Bibliothekswesen (2013) 0.05
    0.046138503 = product of:
      0.15818916 = sum of:
        0.006274925 = product of:
          0.018824775 = sum of:
            0.018824775 = weight(_text_:p in 2456) [ClassicSimilarity], result of:
              0.018824775 = score(doc=2456,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23835106 = fieldWeight in 2456, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2456)
          0.33333334 = coord(1/3)
        0.017521333 = weight(_text_:und in 2456) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2456,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.027354335 = weight(_text_:des in 2456) [ClassicSimilarity], result of:
          0.027354335 = score(doc=2456,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.4496795 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.037749823 = weight(_text_:fragen in 2456) [ClassicSimilarity], result of:
          0.037749823 = score(doc=2456,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 2456, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.017797519 = weight(_text_:der in 2456) [ClassicSimilarity], result of:
          0.017797519 = score(doc=2456,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.017521333 = weight(_text_:und in 2456) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2456,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2456, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2456)
        0.033969894 = product of:
          0.06793979 = sum of:
            0.06793979 = weight(_text_:deutschland in 2456) [ClassicSimilarity], result of:
              0.06793979 = score(doc=2456,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.6403675 = fieldWeight in 2456, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2456)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Von verschiedenen wissenschaftspolitischen Expertengremien sind in den letzten Jahren Analysen und Entwicklungsvorschläge zur Situation der wissenschaftlichen Informationsinfrastrukturen in Deutschland vorgelegt worden. Der Wissenschaftsrat thematisierte 2012 mit seinen jüngsten "Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020" vor allem Fragen der strukturellen Organisation und Koordination von Einrichtungen aus dem Bereich der Informationsinfrastrukturen. Inwieweit die Empfehlungen des Wissenschaftsrats dabei auf Belange des wissenschaftlichen Bibliothekswesens eingehen, soll im vorliegenden Beitrag betrachtet werden. Dazu werden die Empfehlungen des Wissenschaftsrats zunächst in den bibliothekspolitischen Kontext eingeordnet (Abschnitt 1.1 und 1.3) und in ihren relevanten Aspekten vorgestellt (Abschnitt 1.2). In einer kritischen Analyse werden daraufhin wesentliche Punkte des Papiers diskutiert (Abschnitt 2), die im Hinblick auf ihre Auswirkungen auf das wissenschaftliche Bibliothekswesen in Deutschland bewertet (Abschnitt 3) werden. Als tendenziell problematisch erweisen sich dabei u. a. die Aussagen des Wissenschaftsrat zum Thema Open Access sowie zu den Finanzierungsmodalitäten künftiger Informationsinfrastrukturen und ihrer vorgeschlagenen zentralen Steuerung.
  14. Sieglerschmidt, J.: Wissensordnungen im analogen und im digitalen Zeitalter (2017) 0.05
    0.04551929 = product of:
      0.27311572 = sum of:
        0.123069935 = product of:
          0.3692098 = sum of:
            0.3692098 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.3692098 = score(doc=4026,freq=8.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 4026) [ClassicSimilarity], result of:
          0.013487929 = score(doc=4026,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 4026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
        0.123069935 = product of:
          0.3692098 = sum of:
            0.3692098 = weight(_text_:c3 in 4026) [ClassicSimilarity], result of:
              0.3692098 = score(doc=4026,freq=8.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                1.7237456 = fieldWeight in 4026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4026)
          0.33333334 = coord(1/3)
        0.013487929 = weight(_text_:und in 4026) [ClassicSimilarity], result of:
          0.013487929 = score(doc=4026,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27704588 = fieldWeight in 4026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4026)
      0.16666667 = coord(4/24)
    
    Content
    Vgl. unter: https://books.google.de/books?hl=de&lr=&id=0rtGDwAAQBAJ&oi=fnd&pg=PA35&dq=inhaltserschlie%C3%9Fung+OR+sacherschlie%C3%9Fung&ots=5u0TwCbFqE&sig=GGw3Coc21CINkone-6Lx8LaSAjY#v=onepage&q=inhaltserschlie%C3%9Fung%20OR%20sacherschlie%C3%9Fung&f=false.
    Footnote
    Wierabdruck aus: Handbuch Kulturportale: Online-Angebote aus Kultur und Wissenschaft. Hrsg.: Ellen Euler u.a. Berlin 2015.
  15. Rahmstorf, G.: Philosophie als grundlegende Erkenntnis-Wissenschaft (2013) 0.04
    0.043317553 = product of:
      0.20792426 = sum of:
        0.018925203 = weight(_text_:und in 3237) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3237,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.07613816 = weight(_text_:methodik in 3237) [ClassicSimilarity], result of:
          0.07613816 = score(doc=3237,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 3237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.017797519 = weight(_text_:der in 3237) [ClassicSimilarity], result of:
          0.017797519 = score(doc=3237,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 3237, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.07613816 = weight(_text_:methodik in 3237) [ClassicSimilarity], result of:
          0.07613816 = score(doc=3237,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 3237, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
        0.018925203 = weight(_text_:und in 3237) [ClassicSimilarity], result of:
          0.018925203 = score(doc=3237,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38872904 = fieldWeight in 3237, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3237)
      0.20833333 = coord(5/24)
    
    Abstract
    In diesem Beitrag geht es um ein Fachgebiet: die Philosophie. Es soll ein Überblick über dieses Thema gewonnen und erkennbar werden, warum diese Wissenschaft so geschätzt wird und in nahezu allen Hochschulen und Universitäten durch planmäßige Stellen vertreten ist. Die Philosophie hat eine über 2000 Jahre lange Geschichte. Die Ursprünge sind mit den Namen Sokrates, Plato und Aristoteles verbunden. Die Lehren dieser Denker wurden über Jahrhunderte weitergegeben und reflektiert. Die Philosophie hat sich vor allem in der Zeit der Aufklärung stärker entfaltet. Sie ist dann später durch Rudolf Carnap und andere Denker einer strengen Methodik unterworfen worden.. Arbeiten mit spekulativem Vorgehen werden zunehmend weniger beachtet. Charakteristisch für die gegenwärtige Philosophie ist, dass systematischer vorgegangen wird. So werden zum Beispiel Thesen aufgestellt und zur Diskussion gestellt.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  16. Hierl, S.; Bauer, L.; Böllers, N.; Herget, J.: Kollaborative Konzeption von Ontologien in der Hochschullehre : Theorie, Chancen und mögliche Umsetzung (2010) 0.04
    0.04263875 = product of:
      0.170555 = sum of:
        0.083798334 = weight(_text_:didaktik in 3732) [ClassicSimilarity], result of:
          0.083798334 = score(doc=3732,freq=2.0), product of:
            0.16663471 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.021966046 = queryNorm
            0.5028864 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.020231893 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3732,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3732, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.011167361 = weight(_text_:des in 3732) [ClassicSimilarity], result of:
          0.011167361 = score(doc=3732,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 3732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.026197236 = weight(_text_:der in 3732) [ClassicSimilarity], result of:
          0.026197236 = score(doc=3732,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5339072 = fieldWeight in 3732, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.020231893 = weight(_text_:und in 3732) [ClassicSimilarity], result of:
          0.020231893 = score(doc=3732,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 3732, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3732)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 3732) [ClassicSimilarity], result of:
              0.017856576 = score(doc=3732,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 3732, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3732)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    In unserer heutigen Informationsgesellschaft führen immer neue Technologien und Medien sowie die massiv zunehmende Datenmenge zu einem sehr hohen Stellenwert der Informations- und Medienkompetenz. Im vorliegenden Beitrag werden die Herausforderungen im Prozess der Vermittlung dieser Kompetenzen im Hochschulbereich thematisiert. Es wird ein Konzept vorgestellt, das einen integrativen Blended-Learning-Ansatz vorschlägt, in dessen Rahmen Schlüsselqualifikationen nach dem Ansatz des kontextuellen Lehrens vermittelt werden können. Es findet hierbei eine Fokussierung auf den Prozess der kollaborativen Konzeption und Erarbeitung von Wissensstrukturen statt, bei dem Studierende auf einem Themengebiet implizite Zusammenhänge erarbeiten und in Kooperation mit ihren Kommilitonen verschiedene Sichtweisen, Begrifflichkeiten und Verständnisse diskutieren sowie in Form von Topic Maps visualisieren. Die Vorgehensweise stützt sich auf neue Erkenntnisse der kognitiven Lernpsychologie, der Pädagogik und der Didaktik. Der Prozess der kollaborativen Ontologieentwicklung findet in einer über mehrere Jahre hinweg entwickelten und eingesetzten Lernumgebung statt, die explizit auf die Vermittlung von Schlüsselqualifikationen ausgerichtet ist.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  17. Franke-Maier, M.: Anforderungen an die Qualität der Inhaltserschließung im Spannungsfeld von intellektuell und automatisch erzeugten Metadaten (2018) 0.04
    0.039747916 = product of:
      0.13627857 = sum of:
        0.014454362 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5344,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.018425206 = weight(_text_:des in 5344) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5344,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.04404146 = weight(_text_:fragen in 5344) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5344,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.023975939 = weight(_text_:der in 5344) [ClassicSimilarity], result of:
          0.023975939 = score(doc=5344,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4886365 = fieldWeight in 5344, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010510888 = product of:
          0.021021776 = sum of:
            0.021021776 = weight(_text_:29 in 5344) [ClassicSimilarity], result of:
              0.021021776 = score(doc=5344,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.27205724 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
        0.014454362 = weight(_text_:und in 5344) [ClassicSimilarity], result of:
          0.014454362 = score(doc=5344,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 5344, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5344)
        0.010416336 = product of:
          0.020832673 = sum of:
            0.020832673 = weight(_text_:22 in 5344) [ClassicSimilarity], result of:
              0.020832673 = score(doc=5344,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.2708308 = fieldWeight in 5344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5344)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Spätestens seit dem Deutschen Bibliothekartag 2018 hat sich die Diskussion zu den automatischen Verfahren der Inhaltserschließung der Deutschen Nationalbibliothek von einer politisch geführten Diskussion in eine Qualitätsdiskussion verwandelt. Der folgende Beitrag beschäftigt sich mit Fragen der Qualität von Inhaltserschließung in digitalen Zeiten, wo heterogene Erzeugnisse unterschiedlicher Verfahren aufeinandertreffen und versucht, wichtige Anforderungen an Qualität zu definieren. Dieser Tagungsbeitrag fasst die vom Autor als Impulse vorgetragenen Ideen beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV am 29. August 2018 in Kiel zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.
  18. Berg, L.; Metzner, J.; Thrun, S.: Studieren im Netz - Das Ende der Uni? : Kostenloser Online-Unterricht (2012) 0.04
    0.039547283 = product of:
      0.13559069 = sum of:
        0.011921758 = weight(_text_:und in 227) [ClassicSimilarity], result of:
          0.011921758 = score(doc=227,freq=32.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 227, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.010404575 = weight(_text_:des in 227) [ClassicSimilarity], result of:
          0.010404575 = score(doc=227,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.1710414 = fieldWeight in 227, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.02724359 = weight(_text_:fragen in 227) [ClassicSimilarity], result of:
          0.02724359 = score(doc=227,freq=6.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.24358979 = fieldWeight in 227, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.016303154 = weight(_text_:der in 227) [ClassicSimilarity], result of:
          0.016303154 = score(doc=227,freq=58.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.33226293 = fieldWeight in 227, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.04778739 = weight(_text_:unterricht in 227) [ClassicSimilarity], result of:
          0.04778739 = score(doc=227,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.29151487 = fieldWeight in 227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.011921758 = weight(_text_:und in 227) [ClassicSimilarity], result of:
          0.011921758 = score(doc=227,freq=32.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 227, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=227)
        0.010008476 = product of:
          0.020016951 = sum of:
            0.020016951 = weight(_text_:deutschland in 227) [ClassicSimilarity], result of:
              0.020016951 = score(doc=227,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.18867008 = fieldWeight in 227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=227)
          0.5 = coord(1/2)
      0.29166666 = coord(7/24)
    
    Abstract
    Wird das Internet die Uni ablösen? Wird bald nur noch online gelehrt und gelernt? Professor Sebastian Thrun von der Universität Stanford und Chef bei Google X sagt, in 50 Jahren gibt es weltweit nur noch zehn Universitäten. Professor Joachim Metzner hält dagegen
    Content
    "Pro - (Prof. Sebastian Thrun) An der kalifornischen Elite-Universität Stanford studieren 15.000 junge Leute. Im vergangenen Herbst kamen auf einen Schlag 160.000 Studierende hinzu, allerdings nur online. Die private Hochschule hatte erstmals ein Einführungsseminar für das Fach Künstliche Intelligenz ins Internet gestellt, in schlichter Aufmachung, aber kostenlos und für alle Welt zugänglich. Mit einem derart gewaltigen Ansturm hatte niemand in Stanford gerechnet, die Nachricht von dem kostenlosen Informatikkurs verbreitete sich praktisch in Echtzeit um den Globus. Zwei Drittel der Anmeldungen kamen aus Asien und Europa, insgesamt zählten die Organisatoren Interessenten aus 190 Ländern. Es waren viele junge Leute dabei, aber auch Hausfrauen mit kleinen Kindern und achtzigjährige Rentner. Wer das Angebot aufmerksam gelesen hatten, wusste, was auf sie zukam: ein achtwöchiger Kurs mit Vorlesungen, Hausaufgaben, jede Woche ein benoteter Test und ein Abschlussexamen - gleiche Anforderungen also wie im Live-Kurs, der parallel dazu für rund zweihundert Studierende auf dem Campus stattfand. Nur dreißig Leute im Seminar Ein Stanford-Zertifikat wurde nicht in Aussicht gestellt, nur eine Art Teilnahmebestätigung für alle, die bis zum Ende durchhielten. Rund 23.000 Teilnehmer schafften die schwere Prüfung am Ende des Kurses. "Zum Schluss saßen in meinem Seminar in Stanford nur noch dreißig Leute", sagt der in Solingen geborene Kursleiter Sebastian Thrun. "Die anderen bevorzugten den Online-Unterricht, vor allem wegen der größeren zeitlichen und räumlichen Flexibilität." Das habe ihn besonders beeindruckt.
    Die Idee, seinen Präsenzkurs speziell aufbereitet ins Internet zu stellen, kam ihm im vergangenen Jahr, als er die Arbeit von Salman Khan kennenlernte. Dieser wendet sich mit seiner Video-Bibliothek vor allem an Schüler (siehe nebenstehende Reportage). Nun, nach dem Erfolg des Stanford-Experiments, sieht Sebastian Thrun einen Epochenwechsel heraufziehen. Er sagt das Ende der Universität, wie wir sie kennen, voraus. "In fünfzig Jahren wird es weltweit nur noch zehn Institutionen geben, die akademische Bildung vermitteln." Der jugendlich wirkende Informatikprofessor sitzt auf einer Parkbank am sogenannten Oval, einer großen Rasenfläche am Haupteingang von Stanford. Er spricht schnell, fröstelt. Seit Wochen bekommt er nicht genug Schlaf, zu viele Projekte. Als das Gespräch auf seine Studienzeit in Deutschland kommt - die späten Achtzigerjahre - wird er nicht etwa nostalgisch. Denn er hat keine guten Erinnerungen: Professoren, die veralteten Stoff lieblos vermittelten, überfüllte Lehrveranstaltungen, zu wenig Diskussion. Fragen aus der Praxis "Die Professoren waren unnahbar, es ging ihnen oft nur darum, Studenten abzuwimmeln." Sebastian Thrun hat es dennoch geschafft: Zuerst als Stanford-Professor, jetzt als Chef bei Google X, einem Labor, in dem der Suchmaschinen-Konzern zum Beispiel fahrerlose Fahrzeuge entwickelt. Nebenher baut er das Projekt Udacity auf, eine digitale Universität, die kostenlose Online-Kurse anbietet. Zunächst in den Computerwissenschaften, später sollen Angebote in den Ingenieurwissenschaften, Physik und Chemie folgen. Thruns Vision sind dynamische, interaktive Videos, nicht nur zu abstrakten Themen, sondern zu Fragen aus der Praxis.
    Wie entwickle ich eine Computer-App zum Beispiel. Oft würden solche Fragen von talentierten Menschen aus armen Ländern gestellt, die sich mit dem Wissen eine Existenz aufbauen wollten. Ihnen die richtigen Antworten zu geben sei besser als Entwicklungshilfe, findet Thrun. Udacity könne die Welt zum Besseren verändern, und deshalb müsse das Angebot kostenlos bleiben. Die meisten Universitäten schlafen noch Im Sommersemester gibt der Forschungsleiter von Google, Peter Norvig, ein Seminar zur Gestaltung von Software, andere namhafte Experten von Hochschulen aus dem angloamerikanischen Raum bieten Kurse über Programmiersprachen oder Kryptografie an. Mit dem Stanford-Image kann Thrun, der sich als Professor hat beurlauben lassen, nur noch indirekt punkten. Und Geld hat er von dort auch nicht mehr zu erwarten. Aber, wer weiß, vielleicht springt ja eines Tages sein neuer Arbeitgeber ein. Bis dahin tragen einige Weltfirmen zur Finanzierung bei: Sie zahlen für die Vermittlung besonders fähiger Absolventen. Unterdessen zieht die Konkurrenz nach. Weitere Stanford-Professoren bieten kostenlose Online-Kurse an und auch das renommierte Massachusetts Institute of Technology (MIT) an der Ostküste des Landes hat eine digitale Initiative namens MITx angekündigt. Die Teilnahme soll kostenlos sein, aber für das Abschlusszertifikat ist eine Gebühr zu entrichten. Diese Aktivitäten seien Ausnahmen, sagt Thrun: Die meisten Universitäten schlafen noch."
    Contra - (Prof. Joachim Metzner) Erleben wir mit der Gründung von Udacity wirklich die kühne revolutionäre Zeitenwende im Bildungswesen, den beginnenden Untergang der herkömmlichen Institution Hochschule? Längst hat sich doch, auch in Deutschland, das e-learning seinen Platz erobert. Es gibt kaum noch eine Hochschule, die nicht über entsprechende Angebote verfügt. Die Reform der Lehre ist trotz überfüllter Hörsäle in vollem Gange, auch dank der Social Media. Das erwartet die heutige Generation der Studierenden, und diese Erwartung wird sich noch verstärken. Aber für Sebastian Thrun wird der virtuelle Raum ja den Hörsaal ablösen. Doch wird er das wirklich? Campus als Herzstück der Hochschule Die Präsidentin des Massachusetts Institute of Technology, Susan Hockfield, ist da anderer Meinung: Trotz aller Online-Möglichkeiten, sagt sie, bleibt der reale Campus das Herzstück der Hochschule. Sie weiß, dass die Studierenden zwar die Freiheiten schätzen, die das Internet bietet, aber mindestens ebenso sehr das reale Zusammensein - sei es im Seminarraum, sei es auf der Wiese oder in der Kneipe. Dass zahlreiche Online-Kurse kostenlos nutzbar sind, ist faszinierend und eröffnet riesige soziale Chancen. Doch werfen solche Kurse immense Gewinne ab, wenn der Anbieter dies will. Jeder Nutzer erzeugt ja, quasi als Testperson, Massen an wertvollen Daten, die Auskunft geben über Interessen und Nutzungsverhalten. Als kostenloser Anbieter kann man aus solchen Informationen Premiumangebote ableiten, die für viel Geld verkäuflich sind.
    Abschluss nicht kostenlos zu haben Wohl nicht zufällig führen Online-Kurse meist auch nur zu Abschlusszertifikaten, die den Wunsch nach einem echten Hochschulabschluss wecken. Der ist natürlich nicht kostenlos zu haben, jedenfalls nicht in den USA, dem Wunderland des Studierens via Internet. Niemand sollte die Chancen, die das Internet Studierenden eröffnet, kleinreden und den begeisterten Architekten virtueller Hochschulen die guten Absichten absprechen. Aber hat nicht die Auseinandersetzung um Google Street View gezeigt, welche Datenmassen buchstäblich en passant erzeugt werden und anderweitig verwertbar sind? Sebastian Thrun ist einer der Entwickler dieses Programms, man sollte ihm nicht unkritisch begegnen. Seine Prognose, dass sich bald nur noch zehn Anbieter von Studiengängen den Bildungsmarkt weltweit aufteilen werden, lässt da aufhorchen. Vermutlich glaubt er, einer stehe schon fest."
  19. Walther, R.: Abschied von einem Relikt der Print-Ära : MEDIENgedanken: Ende des gedruckten Brockhaus-Lexikons (2013) 0.04
    0.03679828 = product of:
      0.110394835 = sum of:
        0.0031374625 = product of:
          0.009412387 = sum of:
            0.009412387 = weight(_text_:p in 1030) [ClassicSimilarity], result of:
              0.009412387 = score(doc=1030,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11917553 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.33333334 = coord(1/3)
        0.01991326 = weight(_text_:und in 1030) [ClassicSimilarity], result of:
          0.01991326 = score(doc=1030,freq=62.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.409024 = fieldWeight in 1030, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.018518975 = weight(_text_:des in 1030) [ClassicSimilarity], result of:
          0.018518975 = score(doc=1030,freq=22.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.30443448 = fieldWeight in 1030, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.018874912 = weight(_text_:fragen in 1030) [ClassicSimilarity], result of:
          0.018874912 = score(doc=1030,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.16876394 = fieldWeight in 1030, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.017039828 = weight(_text_:der in 1030) [ClassicSimilarity], result of:
          0.017039828 = score(doc=1030,freq=44.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34727657 = fieldWeight in 1030, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.004504666 = product of:
          0.009009332 = sum of:
            0.009009332 = weight(_text_:29 in 1030) [ClassicSimilarity], result of:
              0.009009332 = score(doc=1030,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.11659596 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
        0.01991326 = weight(_text_:und in 1030) [ClassicSimilarity], result of:
          0.01991326 = score(doc=1030,freq=62.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.409024 = fieldWeight in 1030, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1030)
        0.0084924735 = product of:
          0.016984947 = sum of:
            0.016984947 = weight(_text_:deutschland in 1030) [ClassicSimilarity], result of:
              0.016984947 = score(doc=1030,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.16009188 = fieldWeight in 1030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1030)
          0.5 = coord(1/2)
      0.33333334 = coord(8/24)
    
    Content
    "2008 wurde bekannt gegeben, dass die 2005/06 präsentierte 21. Auflage des Brockhaus vorerst die letzte gedruckte sein wird. Ab dem 15. April 2008 war die Restauflage zwar noch zu kaufen, aber gleichzeitig wurde das Lexikon vollständig und gratis ins Internet gestellt. Vor kurzem erklärte der Verlag, dass der Betrieb eingestellt wird und nur die vertraglichen Verpflichtungen aus der Online-Aktualisierung bis 2020 weiterlaufen. Viele Kommentatoren halten die 30-bändige, gedruckte Ausgabe für ein Relikt und einen elitären Luxus angesichts der schnellfingerig zugänglichen Lexika im Internet. Der Vorgang hat neben der geschäftlich-profitorientierten eine prinzipielle, wissens- und bildungsgeschichtliche Seite. Allein darum geht es, denn der Brockhaus als Geschäft ist eine reine Privatsache der Eigentümer. Das Konversationslexikon verdankt seine Entstehung einer historischen Konstellation, die sich heute im Zeichen von Internet und elektronischer Revolutionierung der Kommunikation wiederholt. Auch die Konstellation in der Entstehungszeit des Konversationslexikons um 1810 war geprägt durch ein ökonomisches Kalkül und ein konzeptionelles Dilemma.
    Ökonomisch gesehen sind die Konversationslexika des 19.Jahrhunderts die Erben der Enzyklopädien des 18. Jahrhunderts. Diese großen Universallexika waren allein von ihrem Umfang, intellektuellen Anspruch und Preis her nicht für ein breites Publikum bestimmt. Genau darauf schielte jedoch der Geschäftsmann Brockhaus mit seiner schlichten Rechnung: von den 100 Millionen deutschsprachigen Europäern entfielen ihm zufolge 75 Millionen auf Frauen, Kinder, Arme und Al- te. Diese schieden als Käufer aus. Vom Rest sollte ein Viertel also rund sechs Millionen Bildungs- und Besitzbürger - ein Lexikon kaufen, um »eine Art von Schlüssel« zu erwerben, mit dem sie sich »den Eingang in gebildete Zirkel« verschaffen konnten. Daher der Name »Konversationslexikon«. Neben diesem prosaischen ökonomischen Kalkül gab es ein konzeptionelles Dilemma für die in dem Jahrhundert der Aufklärung entstandenen großen Enzyklopädien oder Universallexika. Sie beanspruchten, das gesamte verfügbare Wissen zu sammeln. Aus diesem enzyklopädischen Geist - das griechische Wort bedeutet wörtlich »Kreis der Wissenschaften« - entstand Johann Heinrich Zedlers 68 Bände starkes »Großes vollständiges Universallexikon aller Wissenschaften und Künste« (1732-1754), wobei das Wort »vollständig« im Titel wörtlich verstanden wurde. Denis Diderot und Jean Le Rond d'Alembert publizierten die 35 Bände der »Encyclopédie ou dictionnaire raisonnée des sciences, des arts et des metiers« innerhalb von 29 Jahren - zwischen 1751 und 1780. Das konzeptionelle Dilemma für diese Enzyklopädien entstand, weil sich das Wissen viel schneller vermehrte und veränderte, als es gedruckt werden konnte. Die »Allgemeine Enzyklopädie der Wissenschaften und Künste« von Johann Samuel Ersch und Johann Gottfried Gruber wurde deshalb mit dem 167. Band beim Buchstaben P 1889 abgebrochen.
    Es gab zwei Auswege aus diesem Dilemma: Man konnte den umfassenden enzyklopädischen Anspruch aufrechterhalten, aber sich auf einzelne Fach- bzw. Wissensgebiete beschränken. Diesen Weg ging die »Oeconomische Encyclopädie« (1773-1858) und endete in einer Sackgasse: Mit dem 242. Band erreichte sie den Buchstaben L. und wurde 1858 eingestellt - angeblich mit dem Stichwort Leiche. Den zweiten Ausweg beschritt u.a. der Kaufmann Brockhaus. Er wollte nicht mehr alles Wissen sammeln, sondern nur das für gepflegte Gespräche notwendige Wissen. Die schwierige Frage, was zum Notwendigen gehörte und was nicht, wurde zunächst ebenso willkürlich beantwortet wie moralische, ethische und ästhetische, aber auch medizinische und politische Fragen - bieder-hausväterlich und vorurteilstrunken. Vieles blieb mit Haut und Haaren dem Zeitgeist verhaftet. Friedrich Engels, der gebildete Grandseigneur des Sozialismus, nannte Konversationslexika deshalb »Eselsbrücken des deutschen Bildungsphilisters«. Gegen Ende des 19. Jahrhunderts wurden die Lexika sachlicher in ihrer Diktion und wissenschaftlicher. Seit der 17. Auflage von 1966 nannte sich das Lexikon »Brockhaus-Enzyklopädie«. Aktualität, Objektivität, Selektivität und Präzision sind die Grundanforderungen an jedes Lexikon. Die vier Anforderungen sind jedoch nur schwer miteinander vereinbar. Die Aktualität kann die Objektivität gefährden, die Auswahl tangiert Aktualität und Objektivität, die Präzision ist mit Objektivitäts- und Auswahlproblemen ver- knüpft. Lexikographie war und ist inhaltlich ein Jonglierakt mit diesen vier Kugeln. Wikipedia weicht dem aus und präsentiert einen unübersichtlichen Wissenshaufen.
    Wissen vermehrt und verändert sich auch heute immer schneller. Das Online-Lexikon Wikipedia ist viel schneller und umfangreicher als Brockhaus. Aber Wikipedia organisiert nicht Wissen, sondern zerstückelt es in ein ebenso wirres wie verwirrendes Labyrinth von Wissenspartikeln und Verweisen, während die 4060 Lexikographen bei Brockhaus das unübersichtlich-chaotische Expertenwissen von Tausenden von Spezialisten zu konsistenten Einheiten verdichten. Sich mit Wikipedia zu bilden, gleicht dem hoffnungslosen Unterfangen, mit einem mehrbändigen Wörterbuch eine Sprache zu lernen. Wenn der gedruckte Brockhaus verschwindet, drohen nicht Weltuntergang oder barbarische Ignoranz - ein kultureller Verlust aber allemal."
    Source
    Neues Deutschland. 3./4.8.2013, S.W10
  20. Kasprzik, A.: Voraussetzungen und Anwendungspotentiale einer präzisen Sacherschließung aus Sicht der Wissenschaft (2018) 0.04
    0.0354701 = product of:
      0.1418804 = sum of:
        0.020441556 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5195,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.018425206 = weight(_text_:des in 5195) [ClassicSimilarity], result of:
          0.018425206 = score(doc=5195,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 5195, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.04404146 = weight(_text_:fragen in 5195) [ClassicSimilarity], result of:
          0.04404146 = score(doc=5195,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 5195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.02811428 = weight(_text_:der in 5195) [ClassicSimilarity], result of:
          0.02811428 = score(doc=5195,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.57297707 = fieldWeight in 5195, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.020441556 = weight(_text_:und in 5195) [ClassicSimilarity], result of:
          0.020441556 = score(doc=5195,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 5195, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5195)
        0.010416336 = product of:
          0.020832673 = sum of:
            0.020832673 = weight(_text_:22 in 5195) [ClassicSimilarity], result of:
              0.020832673 = score(doc=5195,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.2708308 = fieldWeight in 5195, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5195)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Große Aufmerksamkeit richtet sich im Moment auf das Potential von automatisierten Methoden in der Sacherschließung und deren Interaktionsmöglichkeiten mit intellektuellen Methoden. In diesem Kontext befasst sich der vorliegende Beitrag mit den folgenden Fragen: Was sind die Anforderungen an bibliothekarische Metadaten aus Sicht der Wissenschaft? Was wird gebraucht, um den Informationsbedarf der Fachcommunities zu bedienen? Und was bedeutet das entsprechend für die Automatisierung der Metadatenerstellung und -pflege? Dieser Beitrag fasst die von der Autorin eingenommene Position in einem Impulsvortrag und der Podiumsdiskussion beim Workshop der FAG "Erschließung und Informationsvermittlung" des GBV zusammen. Der Workshop fand im Rahmen der 22. Verbundkonferenz des GBV statt.

Authors

Languages

  • e 1320
  • d 1302
  • a 1
  • f 1
  • i 1
  • no 1
  • sp 1
  • More… Less…

Types

  • el 349
  • b 4
  • More… Less…

Themes

Classifications