Search (2120 results, page 1 of 106)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.36
    0.36353958 = product of:
      1.2521919 = sum of:
        0.056695588 = product of:
          0.17008676 = sum of:
            0.17008676 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.17008676 = score(doc=1826,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.0048889956 = weight(_text_:e in 1826) [ClassicSimilarity], result of:
          0.0048889956 = score(doc=1826,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.15880844 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.17008676 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.17008676 = score(doc=1826,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.29032257 = coord(9/31)
    
    Language
    e
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.29
    0.29083169 = product of:
      1.0017536 = sum of:
        0.045356467 = product of:
          0.1360694 = sum of:
            0.1360694 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.1360694 = score(doc=230,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.0039111963 = weight(_text_:e in 230) [ClassicSimilarity], result of:
          0.0039111963 = score(doc=230,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.12704675 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.1360694 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.1360694 = score(doc=230,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.29032257 = coord(9/31)
    
    Language
    e
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.26
    0.2553292 = product of:
      0.65960044 = sum of:
        0.028347794 = product of:
          0.08504338 = sum of:
            0.08504338 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.08504338 = score(doc=4388,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010066918 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010066918 = score(doc=4388,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.01337068 = weight(_text_:im in 4388) [ClassicSimilarity], result of:
          0.01337068 = score(doc=4388,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.22084267 = fieldWeight in 4388, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.0024444978 = weight(_text_:e in 4388) [ClassicSimilarity], result of:
          0.0024444978 = score(doc=4388,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.07940422 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08504338 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08504338 = score(doc=4388,freq=2.0), product of:
            0.18158145 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.02141793 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010066918 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010066918 = score(doc=4388,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.38709676 = coord(12/31)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Darnton, R.: Im Besitz des Wissens : Von der Gelehrtenrepublik des 18. Jahrhunderts zum digitalen Google-Monopol (2009) 0.06
    0.055041995 = product of:
      0.24375741 = sum of:
        0.013949131 = weight(_text_:und in 2335) [ClassicSimilarity], result of:
          0.013949131 = score(doc=2335,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 2335, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.019650806 = weight(_text_:im in 2335) [ClassicSimilarity], result of:
          0.019650806 = score(doc=2335,freq=6.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.32457113 = fieldWeight in 2335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.010728197 = weight(_text_:20 in 2335) [ClassicSimilarity], result of:
          0.010728197 = score(doc=2335,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.18222281 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.06335056 = weight(_text_:autoren in 2335) [ClassicSimilarity], result of:
          0.06335056 = score(doc=2335,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 2335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.06335056 = weight(_text_:autoren in 2335) [ClassicSimilarity], result of:
          0.06335056 = score(doc=2335,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 2335, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.058779042 = weight(_text_:werke in 2335) [ClassicSimilarity], result of:
          0.058779042 = score(doc=2335,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.42653102 = fieldWeight in 2335, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
        0.013949131 = weight(_text_:und in 2335) [ClassicSimilarity], result of:
          0.013949131 = score(doc=2335,freq=8.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29385152 = fieldWeight in 2335, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2335)
      0.22580644 = coord(7/31)
    
    Abstract
    Wie eine gigantische Informationslandschaft tut sich das Internet vor unseren Augen auf. Und seit sich Google im Herbst letzten Jahres mit den Autoren und Verlegern, die die große Suchmaschine wegen Urheberrechtsverletzung verklagt hatten, auf einen Vergleich geeinigt hat, stellt sich die Frage nach der Orientierung im World Wide Web mit neuer Dringlichkeit. Während der letzten vier Jahre hat Google Millionen von Büchern, darunter zahllose urheberrechtlich geschützte Werke, aus den Beständen großer Forschungsbibliotheken digitalisiert und für die Onlinesuche ins Netz gestellt. Autoren und Verleger machten dagegen geltend, dass die Digitalisierung eine Copyrightverletzung darstelle. Nach langwierigen Verhandlungen einigte man sich auf eine Regelung, die gravierende Auswirkungen darauf haben wird, wie Bücher den Weg zu ihren Lesern finden. . . .
    Date
    17. 4.2009 20:28:58
  5. Förster, F.: Bibliographischer und universeller Zugriff : Schriftliche historische Quellen und Werke der fiktionalen Literatur in FRBR (2010) 0.05
    0.051795583 = product of:
      0.22938044 = sum of:
        0.016439209 = weight(_text_:und in 3963) [ClassicSimilarity], result of:
          0.016439209 = score(doc=3963,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 3963, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.038393933 = weight(_text_:literatur in 3963) [ClassicSimilarity], result of:
          0.038393933 = score(doc=3963,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3742291 = fieldWeight in 3963, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.038393933 = weight(_text_:literatur in 3963) [ClassicSimilarity], result of:
          0.038393933 = score(doc=3963,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.3742291 = fieldWeight in 3963, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.009454499 = weight(_text_:im in 3963) [ClassicSimilarity], result of:
          0.009454499 = score(doc=3963,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15615936 = fieldWeight in 3963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.04098789 = weight(_text_:einzelne in 3963) [ClassicSimilarity], result of:
          0.04098789 = score(doc=3963,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.3251446 = fieldWeight in 3963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.069271766 = weight(_text_:werke in 3963) [ClassicSimilarity], result of:
          0.069271766 = score(doc=3963,freq=4.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.50267166 = fieldWeight in 3963, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
        0.016439209 = weight(_text_:und in 3963) [ClassicSimilarity], result of:
          0.016439209 = score(doc=3963,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 3963, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3963)
      0.22580644 = coord(7/31)
    
    Abstract
    Die fortgesetzte Entwicklung des bibliographischen Datenmodells FRBROO steht auf der Agenda des Strategischen Plans der IFLA Cataloguing Section. Als Teil des CIDOC Conceptual Reference Models (CIDOC CRM; ISO 21127:2006, letzte Version: v.5.0.2.) können damit verschieden strukturierte Informationen aus dem Bereich des kulturellen Erbes integriert und ausgetauscht werden; durch FRBROO werden bibliographische Informationen eingebunden. Aufgrund sichtbarer Veränderungen in der Publikationspraxis sind die bisherigen Bibliothekskataloge mit ihrer bibliographischen Fixierung auf das Buch als zentrales zu erschließendes Element nicht mehr zeitgemäß. Eine umfassende Erschließung des kulturellen Erbes gemeinsam mit Museen und Archiven und deren "Objekten" und damit eine ontologisch fundierte Abbildung der in naher Zukunft komplett digital vorliegenden publikatorischen Vielfalt in kollaborativ gepflegten Katalogen wissenschaftlicher Bibliotheken gelingt nur, wenn zum einen der einzelne Text als "bibliographisches Objekt", was sowohl historische Quellen, fiktionale Werke als auch wissenschaftliche Aufsätze umfasst, formal und sachlich erschlossen wird und zum anderen das Ereignis als Ausgangspunkt der Erschließungsarbeit betrachtet wird. Zwei Folgerungen ergeben sich daraus: 1) Die semantischen Ebenen der Wissensrepräsentation nach Erwin Panofsky sollten um eine vierte Ebene erweitert werden, die als "acrossness" bezeichnet wird. 2) Die Aufgabe des wissenschaftlichen Bibliothekars sollte in einer intellektuellen Verwaltung der Neuerscheinungen, aber auch einer intellektuellen Durchdringung des eigenen Fachgebietes bestehen.
    Content
    Vortrag im Rahmen der Session 93. Cataloguing der WORLD LIBRARY AND INFORMATION CONGRESS: 76TH IFLA GENERAL CONFERENCE AND ASSEMBLY, 10-15 August 2010, Gothenburg, Sweden
    Theme
    Schöne Literatur
  6. Treude, L.: ¬Das Problem der Konzeptdefinition in der Wissensorganisation : über einen missglückten Versuch der Klärung (2013) 0.05
    0.047237664 = product of:
      0.20919538 = sum of:
        0.038282767 = weight(_text_:sprache in 3060) [ClassicSimilarity], result of:
          0.038282767 = score(doc=3060,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.34422392 = fieldWeight in 3060, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.0120803015 = weight(_text_:und in 3060) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=3060,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 3060, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.011345398 = weight(_text_:im in 3060) [ClassicSimilarity], result of:
          0.011345398 = score(doc=3060,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 3060, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.06335056 = weight(_text_:autoren in 3060) [ClassicSimilarity], result of:
          0.06335056 = score(doc=3060,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 3060, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.06335056 = weight(_text_:autoren in 3060) [ClassicSimilarity], result of:
          0.06335056 = score(doc=3060,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5265894 = fieldWeight in 3060, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.0120803015 = weight(_text_:und in 3060) [ClassicSimilarity], result of:
          0.0120803015 = score(doc=3060,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2544829 = fieldWeight in 3060, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3060)
        0.008705502 = product of:
          0.017411005 = sum of:
            0.017411005 = weight(_text_:22 in 3060) [ClassicSimilarity], result of:
              0.017411005 = score(doc=3060,freq=2.0), product of:
                0.07500195 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02141793 = queryNorm
                0.23214069 = fieldWeight in 3060, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3060)
          0.5 = coord(1/2)
      0.22580644 = coord(7/31)
    
    Abstract
    Alon Friedman und Richard P. Smiraglia kündigen in ihrem aktuellen Artikel "Nodes and arcs: concept map, semiotics, and knowledge organization" an, eine "empirical demonstration of how the domain [of knowledge organisation] itself understands the meaning of a concept" durchzuführen. Die Klärung des Konzeptbegriffs ist ein begrüßenswertes Vorhaben, das die Autoren in einer empirischen Untersuchung von concept maps (also Konzeptdiagrammen) aus dem Bereich der Wissensorganisation nachvollziehen wollen. Beschränkte sich Friedman 2011 in seinem Artikel "Concept theory and semiotics in knowledge organization" [Fn 01] noch ausschließlich auf Sprache als Medium im Zeichenprozess, bezieht er sich nun auf Visualisierungen als Repräsentationsform und scheint somit seinen Ansatz um den Aspekt der Bildlichkeit zu erweitern. Zumindest erwartet man dies nach der Lektüre der Beschreibung des aktuellen Vorhabens von Friedman und Smiraglia, das - wie die Autoren verkünden - auf einer semiotischen Grundlage durchgeführt worden sei.
    Source
    LIBREAS: Library ideas. no.22, 2013, S.xx-xx
  7. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.05
    0.046289567 = product of:
      0.15944184 = sum of:
        0.01575722 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.01575722 = score(doc=3460,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33194062 = fieldWeight in 3460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.026875755 = weight(_text_:literatur in 3460) [ClassicSimilarity], result of:
          0.026875755 = score(doc=3460,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.2619604 = fieldWeight in 3460, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.026875755 = weight(_text_:literatur in 3460) [ClassicSimilarity], result of:
          0.026875755 = score(doc=3460,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.2619604 = fieldWeight in 3460, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.013236298 = weight(_text_:im in 3460) [ClassicSimilarity], result of:
          0.013236298 = score(doc=3460,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.2186231 = fieldWeight in 3460, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.0062581147 = weight(_text_:20 in 3460) [ClassicSimilarity], result of:
          0.0062581147 = score(doc=3460,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.106296636 = fieldWeight in 3460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.026130773 = weight(_text_:autoren in 3460) [ClassicSimilarity], result of:
          0.026130773 = score(doc=3460,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.21720704 = fieldWeight in 3460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.026130773 = weight(_text_:autoren in 3460) [ClassicSimilarity], result of:
          0.026130773 = score(doc=3460,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.21720704 = fieldWeight in 3460, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.0024199293 = weight(_text_:e in 3460) [ClassicSimilarity], result of:
          0.0024199293 = score(doc=3460,freq=4.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.078606166 = fieldWeight in 3460, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
        0.01575722 = weight(_text_:und in 3460) [ClassicSimilarity], result of:
          0.01575722 = score(doc=3460,freq=30.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33194062 = fieldWeight in 3460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3460)
      0.29032257 = coord(9/31)
    
    Biographed
    Garfield, E.
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
    Date
    1. 3.2017 10:44:20
    Language
    e
  8. Rusen, A.: Metapher in der Techniksprache (200?) 0.04
    0.03786398 = product of:
      0.19563057 = sum of:
        0.05104369 = weight(_text_:sprache in 926) [ClassicSimilarity], result of:
          0.05104369 = score(doc=926,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.4589652 = fieldWeight in 926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
        0.01610707 = weight(_text_:und in 926) [ClassicSimilarity], result of:
          0.01610707 = score(doc=926,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 926, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
        0.021393089 = weight(_text_:im in 926) [ClassicSimilarity], result of:
          0.021393089 = score(doc=926,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.35334828 = fieldWeight in 926, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
        0.014304262 = weight(_text_:20 in 926) [ClassicSimilarity], result of:
          0.014304262 = score(doc=926,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.24296375 = fieldWeight in 926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
        0.07667538 = weight(_text_:jahrhundert in 926) [ClassicSimilarity], result of:
          0.07667538 = score(doc=926,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.56251836 = fieldWeight in 926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
        0.01610707 = weight(_text_:und in 926) [ClassicSimilarity], result of:
          0.01610707 = score(doc=926,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 926, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=926)
      0.19354838 = coord(6/31)
    
    Abstract
    Im vorliegenden Beitrag werden Aspekte und Charakteristika der Techniksprache untersucht, indem die Analyse auf Metaphern fokussiert wird. Die Metaphorik ist ein obligatorischer Bestandteil der Techniksprache. Im 20. und 21. Jahrhundert nimmt die Fachsprache und insbesondere die Techniksprache eine Sonderstellung ein. Die Forscher sprechen über eine Veralltäglichung der Technik, aber auch von Technologisierung des Alltags. Techniksprache ist schon längst Teil unserer Alltagskommunikation geworden, wobei in diesem Prozess die Massenmedien eine wichtige Rolle in der Verbreitung dieser Sprache spielen.
  9. Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023) 0.04
    0.03745467 = product of:
      0.19351579 = sum of:
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.05738305 = weight(_text_:einzelne in 1047) [ClassicSimilarity], result of:
          0.05738305 = score(doc=1047,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.45520246 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.052261546 = weight(_text_:autoren in 1047) [ClassicSimilarity], result of:
          0.052261546 = score(doc=1047,freq=2.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.4344141 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.0034222968 = weight(_text_:e in 1047) [ClassicSimilarity], result of:
          0.0034222968 = score(doc=1047,freq=2.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.1111659 = fieldWeight in 1047, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
        0.014093685 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.014093685 = score(doc=1047,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.2968967 = fieldWeight in 1047, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1047)
      0.19354838 = coord(6/31)
    
    Abstract
    Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
    Source
    https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
  10. Seer, V.: Von der Schattenbibliothek zum Forschungskorpus : ein Gespräch über Sci-Hub und die Folgen für die Wissenschaft (2017) 0.04
    0.036751233 = product of:
      0.16275546 = sum of:
        0.01610707 = weight(_text_:und in 5606) [ClassicSimilarity], result of:
          0.01610707 = score(doc=5606,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 5606, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.021718888 = weight(_text_:literatur in 5606) [ClassicSimilarity], result of:
          0.021718888 = score(doc=5606,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.021718888 = weight(_text_:literatur in 5606) [ClassicSimilarity], result of:
          0.021718888 = score(doc=5606,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.015127198 = weight(_text_:im in 5606) [ClassicSimilarity], result of:
          0.015127198 = score(doc=5606,freq=8.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.24985497 = fieldWeight in 5606, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.032790314 = weight(_text_:einzelne in 5606) [ClassicSimilarity], result of:
          0.032790314 = score(doc=5606,freq=2.0), product of:
            0.1260605 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02141793 = queryNorm
            0.26011568 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.039186027 = weight(_text_:werke in 5606) [ClassicSimilarity], result of:
          0.039186027 = score(doc=5606,freq=2.0), product of:
            0.13780719 = queryWeight, product of:
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.02141793 = queryNorm
            0.284354 = fieldWeight in 5606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.434197 = idf(docFreq=192, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
        0.01610707 = weight(_text_:und in 5606) [ClassicSimilarity], result of:
          0.01610707 = score(doc=5606,freq=24.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.33931053 = fieldWeight in 5606, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5606)
      0.22580644 = coord(7/31)
    
    Abstract
    Die so genannten Schattenbibliotheken sind vermutlich die radikalste Form, um Beschränkungen des Zugangs zu wissenschaftlicher Literatur zu umgehen. Sie nutzen die Möglichkeiten digitaler Medien und Netze und vermitteln konsequent, niedrigschwellig und umfangreich den Zugang zu digitalen Kopien von Monographien und Aufsätzen. Obschon offensichtlich in vielen Fällen urheberrechtswidrig, erfreuen sich diese Plattformen einer regen Nachfrage und zwar naturgemäß vor allem aus dem Bereich der Wissenschaft. Es scheint, als würden die Schattenbibliotheken Versorgungslücken schließen, die auch vergleichsweise gut ausgestattete Hochschulbibliotheken haben. Einer weiterer Aspekt könnte sein, dass die sehr einfache Benutzbarkeit verbunden mit der Aussicht, ein Paper garantiert herunterladen zu können, den Umweg über VPN-Einwahl und Bibliotheks-Login unattraktiv macht. Werden Schattenbibliotheken somit zur Konkurrenz für Hochschulbibliotheken? Und mit welcher Motivation setzen sich die Betreiber dieser Plattformen einer möglichen Strafverfolgung, die im Kontext der jüngsten Urteile nun wahrscheinlicher wird, aus? Im Juni diesen Jahres bekam der Wissenschaftsverlag Elsevier, der Gewinnmargen von 37% erzielt (siehe Holcombe 2015), von einem US-Gericht knapp 13 Millionen Euro Schadensersatz für die nicht genehmigte Verbreitung von 100 wissenschaftlichen Artikeln (siehe Scherschel 2017 und Strecker 2017) zugesprochen. Die Fachgesellschaft American Chemical Society (ACS) erhielt in einem zweiten Urteil den Anspruch auf knapp 4,1 Millionen Euro Schadenersatz für 32 zu Unrecht kopierte und verbreitete Werke (Siehe Ernesto 2017). Neben der zunehmenden Kriminalisierung erfährt Sci-Hub jedoch auch großen Zuspruch, der sich neben der starken Nutzung auch in Solidaritätsbekundungen manifestiert (siehe Barok, D. et al 2015).
    LIBREAS hatte die Gelegenheit, sich mit einer an der Plattform Sci-Hub beteiligten Person zu unterhalten. Das Interview und die damit verbundenen informationsethischen Fragestellungen führten dabei redaktionsintern zu einigen Diskussionen. Auch stand die Frage im Raum, ob der Text überhaupt veröffentlicht werden sollte. Sci-Hub kann jedoch als mittlerweile sehr großer potentieller Forschungskorpus sowie aufgrund seiner starken Nutzung als wissenschaftliches Instrument trotz seines rechtlichen Status nicht ignoriert werden. Wir haben versucht, einzelne Behauptungen im Text mit Quellen zu belegen. Naturgemäß sind jedoch nicht sämtliche Angaben verifizierbar. Daher haben wir uns entschlossen größtenteils möglichst direkt die Aussagen des Interviewpartners wiederzugeben. Alle redaktionellen Anmerkungen sind durch eckige Klammern gekennzeichnet. Das Gespräch für LIBREAS führten Linda Freyberg und Ben Kaden.
  11. Heller, L.: Sacherschließung von Literatur in und mit der Wikipedia : eine Spielidee (2010) 0.03
    0.034148987 = product of:
      0.21172373 = sum of:
        0.020133836 = weight(_text_:und in 4428) [ClassicSimilarity], result of:
          0.020133836 = score(doc=4428,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42413816 = fieldWeight in 4428, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4428)
        0.07678787 = weight(_text_:literatur in 4428) [ClassicSimilarity], result of:
          0.07678787 = score(doc=4428,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.7484582 = fieldWeight in 4428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=4428)
        0.07678787 = weight(_text_:literatur in 4428) [ClassicSimilarity], result of:
          0.07678787 = score(doc=4428,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.7484582 = fieldWeight in 4428, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=4428)
        0.017880328 = weight(_text_:20 in 4428) [ClassicSimilarity], result of:
          0.017880328 = score(doc=4428,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.30370468 = fieldWeight in 4428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.078125 = fieldNorm(doc=4428)
        0.020133836 = weight(_text_:und in 4428) [ClassicSimilarity], result of:
          0.020133836 = score(doc=4428,freq=6.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.42413816 = fieldWeight in 4428, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4428)
      0.16129032 = coord(5/31)
    
    Abstract
    Grundidee und die Potentiale einer kollaborativen Sacherschließung der Wikipedia-Community mittels der Wikipedia als Quasi-Thesaurus
    Date
    6. 4.2011 20:47:38
    Footnote
    Fortsetzung "Sacherschließung von Literatur in und mit der Wikipedia - einfach anfangen?" unter: http://biblionik.de/2011/04/06/anfangen/.
  12. Heller, L.: Sacherschließung von Literatur in und mit der Wikipedia - einfach anfangen? (2011) 0.03
    0.032957174 = product of:
      0.20433448 = sum of:
        0.016439209 = weight(_text_:und in 4424) [ClassicSimilarity], result of:
          0.016439209 = score(doc=4424,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 4424, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4424)
        0.07678787 = weight(_text_:literatur in 4424) [ClassicSimilarity], result of:
          0.07678787 = score(doc=4424,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.7484582 = fieldWeight in 4424, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=4424)
        0.07678787 = weight(_text_:literatur in 4424) [ClassicSimilarity], result of:
          0.07678787 = score(doc=4424,freq=4.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.7484582 = fieldWeight in 4424, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.078125 = fieldNorm(doc=4424)
        0.017880328 = weight(_text_:20 in 4424) [ClassicSimilarity], result of:
          0.017880328 = score(doc=4424,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.30370468 = fieldWeight in 4424, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.078125 = fieldNorm(doc=4424)
        0.016439209 = weight(_text_:und in 4424) [ClassicSimilarity], result of:
          0.016439209 = score(doc=4424,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 4424, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4424)
      0.16129032 = coord(5/31)
    
    Date
    6. 4.2011 20:47:38
    Footnote
    Fortsetzung von "Sacherschließung von Literatur in und mit der Wikipedia: eine Spielidee" unter: http://biblionik.de/2010/08/04/sacherschliessung-mit-wikipedia-spielidee/. Fortsetzung (LITurgy) unter: http://wp.me/p1tS0f-49.
  13. ORCID (2015) 0.03
    0.03188922 = product of:
      0.19771317 = sum of:
        0.015595603 = weight(_text_:und in 1870) [ClassicSimilarity], result of:
          0.015595603 = score(doc=1870,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 1870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.011345398 = weight(_text_:im in 1870) [ClassicSimilarity], result of:
          0.011345398 = score(doc=1870,freq=2.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.18739122 = fieldWeight in 1870, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.07758828 = weight(_text_:autoren in 1870) [ClassicSimilarity], result of:
          0.07758828 = score(doc=1870,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.64493775 = fieldWeight in 1870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.07758828 = weight(_text_:autoren in 1870) [ClassicSimilarity], result of:
          0.07758828 = score(doc=1870,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.64493775 = fieldWeight in 1870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
        0.015595603 = weight(_text_:und in 1870) [ClassicSimilarity], result of:
          0.015595603 = score(doc=1870,freq=10.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.328536 = fieldWeight in 1870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1870)
      0.16129032 = coord(5/31)
    
    Abstract
    ORCID (Open Researcher and Contributor ID) ist ein nicht-proprietärer, überwiegend numerischer Code, der der eindeutigen Identifizierung wissenschaftlicher Autoren dienen soll.
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  14. Sprachtechnologie : ein Überblick (2012) 0.03
    0.03147003 = product of:
      0.16259517 = sum of:
        0.031902306 = weight(_text_:sprache in 1750) [ClassicSimilarity], result of:
          0.031902306 = score(doc=1750,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.28685325 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.014236772 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.014236772 = score(doc=1750,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.027148608 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1750,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.027148608 = weight(_text_:literatur in 1750) [ClassicSimilarity], result of:
          0.027148608 = score(doc=1750,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.26461992 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.04792211 = weight(_text_:jahrhundert in 1750) [ClassicSimilarity], result of:
          0.04792211 = score(doc=1750,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.35157397 = fieldWeight in 1750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
        0.014236772 = weight(_text_:und in 1750) [ClassicSimilarity], result of:
          0.014236772 = score(doc=1750,freq=12.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.29991096 = fieldWeight in 1750, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1750)
      0.19354838 = coord(6/31)
    
    Abstract
    Seit mehr als einem halben Jahrhundert existieren ernsthafte und ernst zu nehmende Versuche, menschliche Sprache maschinell zu verarbeiten. Maschinelle Übersetzung oder "natürliche" Dialoge mit Computern gehören zu den ersten Ideen, die den Bereich der späteren Computerlinguistik oder Sprachtechnologie abgesteckt und deren Vorhaben geleitet haben. Heute ist dieser auch maschinelle Sprachverarbeitung (natural language processing, NLP) genannte Bereich stark ausdiversifiziert: Durch die rapide Entwicklung der Informatik ist vieles vorher Unvorstellbare Realität (z. B. automatische Telefonauskunft), einiges früher Unmögliche immerhin möglich geworden (z. B. Handhelds mit Sprachein- und -ausgabe als digitale persönliche (Informations-)Assistenten). Es gibt verschiedene Anwendungen der Computerlinguistik, von denen einige den Sprung in die kommerzielle Nutzung geschafft haben (z. B. Diktiersysteme, Textklassifikation, maschinelle Übersetzung). Immer noch wird an natürlichsprachlichen Systemen (natural language systems, NLS) verschiedenster Funktionalität (z. B. zur Beantwortung beliebiger Fragen oder zur Generierung komplexer Texte) intensiv geforscht, auch wenn die hoch gesteckten Ziele von einst längst nicht erreicht sind (und deshalb entsprechend "heruntergefahren" wurden). Wo die maschinelle Sprachverarbeitung heute steht, ist allerdings angesichts der vielfältigen Aktivitäten in der Computerlinguistik und Sprachtechnologie weder offensichtlich noch leicht in Erfahrung zu bringen (für Studierende des Fachs und erst recht für Laien). Ein Ziel dieses Buches ist, es, die aktuelle Literaturlage in dieser Hinsicht zu verbessern, indem spezifisch systembezogene Aspekte der Computerlinguistik als Überblick über die Sprachtechnologie zusammengetragen werden.
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  15. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.03
    0.030520977 = product of:
      0.15769172 = sum of:
        0.028347794 = product of:
          0.08504338 = sum of:
            0.08504338 = weight(_text_:3a in 5669) [ClassicSimilarity], result of:
              0.08504338 = score(doc=5669,freq=2.0), product of:
                0.18158145 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02141793 = queryNorm
                0.46834838 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.33333334 = coord(1/3)
        0.008219604 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008219604 = score(doc=5669,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.05279214 = weight(_text_:autoren in 5669) [ClassicSimilarity], result of:
          0.05279214 = score(doc=5669,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.43882453 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.05279214 = weight(_text_:autoren in 5669) [ClassicSimilarity], result of:
          0.05279214 = score(doc=5669,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.43882453 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
        0.007320437 = product of:
          0.014640874 = sum of:
            0.014640874 = weight(_text_:29 in 5669) [ClassicSimilarity], result of:
              0.014640874 = score(doc=5669,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.19432661 = fieldWeight in 5669, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5669)
          0.5 = coord(1/2)
        0.008219604 = weight(_text_:und in 5669) [ClassicSimilarity], result of:
          0.008219604 = score(doc=5669,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.17315367 = fieldWeight in 5669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5669)
      0.19354838 = coord(6/31)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  16. Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005) 0.03
    0.030477893 = product of:
      0.13497353 = sum of:
        0.025521845 = weight(_text_:sprache in 4881) [ClassicSimilarity], result of:
          0.025521845 = score(doc=4881,freq=2.0), product of:
            0.11121472 = queryWeight, product of:
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.02141793 = queryNorm
            0.2294826 = fieldWeight in 4881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.192599 = idf(docFreq=667, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.02130765 = weight(_text_:und in 4881) [ClassicSimilarity], result of:
          0.02130765 = score(doc=4881,freq=42.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44886562 = fieldWeight in 4881, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.021718888 = weight(_text_:literatur in 4881) [ClassicSimilarity], result of:
          0.021718888 = score(doc=4881,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 4881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.021718888 = weight(_text_:literatur in 4881) [ClassicSimilarity], result of:
          0.021718888 = score(doc=4881,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.21169594 = fieldWeight in 4881, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.020011403 = weight(_text_:im in 4881) [ClassicSimilarity], result of:
          0.020011403 = score(doc=4881,freq=14.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.33052707 = fieldWeight in 4881, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.0033871958 = weight(_text_:e in 4881) [ClassicSimilarity], result of:
          0.0033871958 = score(doc=4881,freq=6.0), product of:
            0.03078549 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02141793 = queryNorm
            0.11002572 = fieldWeight in 4881, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
        0.02130765 = weight(_text_:und in 4881) [ClassicSimilarity], result of:
          0.02130765 = score(doc=4881,freq=42.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.44886562 = fieldWeight in 4881, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4881)
      0.22580644 = coord(7/31)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
  17. Reuß, R.: ¬Der Geist gehört dem Staat : Open Access (2015) 0.03
    0.030247368 = product of:
      0.23441711 = sum of:
        0.011624276 = weight(_text_:und in 2512) [ClassicSimilarity], result of:
          0.011624276 = score(doc=2512,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24487628 = fieldWeight in 2512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2512)
        0.10558428 = weight(_text_:autoren in 2512) [ClassicSimilarity], result of:
          0.10558428 = score(doc=2512,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.87764907 = fieldWeight in 2512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.078125 = fieldNorm(doc=2512)
        0.10558428 = weight(_text_:autoren in 2512) [ClassicSimilarity], result of:
          0.10558428 = score(doc=2512,freq=4.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.87764907 = fieldWeight in 2512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.078125 = fieldNorm(doc=2512)
        0.011624276 = weight(_text_:und in 2512) [ClassicSimilarity], result of:
          0.011624276 = score(doc=2512,freq=2.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.24487628 = fieldWeight in 2512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2512)
      0.12903225 = coord(4/31)
    
    Abstract
    Der Open-Access-Wahnsinn geht weiter. Das Land Baden-Württemberg nötigt die Universitäten, ihre wissenschaftlichen Autoren zu knebeln. Konstanz geht mit schlechtem Beispiel voran.
    Source
    http://www.faz.net/aktuell/feuilleton/forschung-und-lehre/baden-wuerttemberg-entrechtet-seine-wissenschaftlichen-autoren-13988149-p3.html?printPagedArticle=true#pageIndex_3
  18. Toepfer, M.; Kempf, A.O.: Automatische Indexierung auf Basis von Titeln und Autoren-Keywords : ein Werkstattbericht (2016) 0.03
    0.030194595 = product of:
      0.18720649 = sum of:
        0.016439209 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.016439209 = score(doc=3209,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.025014253 = weight(_text_:im in 3209) [ClassicSimilarity], result of:
          0.025014253 = score(doc=3209,freq=14.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.41315883 = fieldWeight in 3209, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.064656906 = weight(_text_:autoren in 3209) [ClassicSimilarity], result of:
          0.064656906 = score(doc=3209,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5374481 = fieldWeight in 3209, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.064656906 = weight(_text_:autoren in 3209) [ClassicSimilarity], result of:
          0.064656906 = score(doc=3209,freq=6.0), product of:
            0.12030353 = queryWeight, product of:
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.02141793 = queryNorm
            0.5374481 = fieldWeight in 3209, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.616954 = idf(docFreq=436, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
        0.016439209 = weight(_text_:und in 3209) [ClassicSimilarity], result of:
          0.016439209 = score(doc=3209,freq=16.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.34630734 = fieldWeight in 3209, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3209)
      0.16129032 = coord(5/31)
    
    Abstract
    Automatische Verfahren sind für Bibliotheken essentiell, um die Erschliessung stetig wachsender Datenmengen zu stemmen. Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft sammelt seit Längerem Erfahrungen im Bereich automatischer Indexierung und baut hier eigene Kompetenzen auf. Aufgrund rechtlicher Restriktionen werden unter anderem Ansätze untersucht, die ohne Volltextnutzung arbeiten. Dieser Beitrag gibt einen Einblick in ein laufendes Teilprojekt, das unter Verwendung von Titeln und Autoren-Keywords auf eine Nachnormierung der inhaltsbeschreibenden Metadaten auf den Standard-Thesaurus Wirtschaft (STW) abzielt. Wir erläutern den Hintergrund der Arbeit, betrachten die Systemarchitektur und stellen erste vielversprechende Ergebnisse eines dokumentenorientierten Verfahrens vor.
    Im Folgenden erläutern wir zunächst den Hintergrund der aktuellen Arbeit. Wir beziehen uns auf Erfahrungen mit maschinellen Verfahren allgemein und an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) - Leibniz-Informationszentrum Wirtschaft im Speziellen. Im Anschluss geben wir einen konkreten Einblick in ein laufendes Teilprojekt, bei dem die Systemarchitektur der Automatik gegenüber früheren Arbeiten Titel und Autoren-Keywords gemeinsam verwendet, um eine Nachnormierung auf den Standard-Thesaurus Wirtschaft (STW) zu erzielen. Im Gegenssatz zu einer statischen Verknüpfung im Sinne einer Crosskonkordanz bzw. Vokabularabbildung ist das jetzt verfolgte Vorgehen dokumentenorientiert und damit in der Lage, kontextbezogene Zuordnungen vorzunehmen. Der Artikel stellt neben der Systemarchitektur auch erste experimentelle Ergebnisse vor, die im Vergleich zu titelbasierten Vorhersagen bereits deutliche Verbesserungen aufzeigen.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/156/354.
  19. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.03
    0.029743306 = product of:
      0.13172036 = sum of:
        0.036704622 = weight(_text_:italienische in 118) [ClassicSimilarity], result of:
          0.036704622 = score(doc=118,freq=2.0), product of:
            0.18861735 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02141793 = queryNorm
            0.19459833 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.013151366 = weight(_text_:und in 118) [ClassicSimilarity], result of:
          0.013151366 = score(doc=118,freq=64.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 118, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.036704622 = weight(_text_:italienische in 118) [ClassicSimilarity], result of:
          0.036704622 = score(doc=118,freq=2.0), product of:
            0.18861735 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02141793 = queryNorm
            0.19459833 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.009263478 = weight(_text_:im in 118) [ClassicSimilarity], result of:
          0.009263478 = score(doc=118,freq=12.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.15300429 = fieldWeight in 118, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.0035760654 = weight(_text_:20 in 118) [ClassicSimilarity], result of:
          0.0035760654 = score(doc=118,freq=2.0), product of:
            0.05887406 = queryWeight, product of:
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.02141793 = queryNorm
            0.060740937 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.748821 = idf(docFreq=7692, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.019168844 = weight(_text_:jahrhundert in 118) [ClassicSimilarity], result of:
          0.019168844 = score(doc=118,freq=2.0), product of:
            0.13630733 = queryWeight, product of:
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.02141793 = queryNorm
            0.14062959 = fieldWeight in 118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3641686 = idf(docFreq=206, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.013151366 = weight(_text_:und in 118) [ClassicSimilarity], result of:
          0.013151366 = score(doc=118,freq=64.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 118, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
      0.22580644 = coord(7/31)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Content
    Einführung in das Arbeiten in und mit dem Online-Lexikon; mit Hilfen, Ratschlägen, Anweisungen und Tipps sowohl für passive Nutzer als auch aktive Mitarbeiter. Beiliegende DVD-ROM enthält über 300.000 Artikel der Offline-Version des Lexikons.
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
  20. Kim, T.C.-w.K.; Zumstein, P.: Semiautomatische Katalogisierung und Normdatenverknüpfung mit Zotero im Index Theologicus (2016) 0.03
    0.028313046 = product of:
      0.14628407 = sum of:
        0.013151366 = weight(_text_:und in 3064) [ClassicSimilarity], result of:
          0.013151366 = score(doc=3064,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
        0.043437775 = weight(_text_:literatur in 3064) [ClassicSimilarity], result of:
          0.043437775 = score(doc=3064,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.42339188 = fieldWeight in 3064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
        0.043437775 = weight(_text_:literatur in 3064) [ClassicSimilarity], result of:
          0.043437775 = score(doc=3064,freq=2.0), product of:
            0.102594726 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.02141793 = queryNorm
            0.42339188 = fieldWeight in 3064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
        0.021393089 = weight(_text_:im in 3064) [ClassicSimilarity], result of:
          0.021393089 = score(doc=3064,freq=4.0), product of:
            0.060543913 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02141793 = queryNorm
            0.35334828 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
        0.011712699 = product of:
          0.023425398 = sum of:
            0.023425398 = weight(_text_:29 in 3064) [ClassicSimilarity], result of:
              0.023425398 = score(doc=3064,freq=2.0), product of:
                0.07534158 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02141793 = queryNorm
                0.31092256 = fieldWeight in 3064, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3064)
          0.5 = coord(1/2)
        0.013151366 = weight(_text_:und in 3064) [ClassicSimilarity], result of:
          0.013151366 = score(doc=3064,freq=4.0), product of:
            0.047469996 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02141793 = queryNorm
            0.27704588 = fieldWeight in 3064, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3064)
      0.19354838 = coord(6/31)
    
    Abstract
    Im Folgenden soll aufgezeigt werden, wie derzeit das Literaturverwaltungsprogramm Zotero innerhalb des Index Theologicus genutzt wird, um unselbstständige Literatur in einem bibliothekarischen Katalogisierungssystem zu erfassen. Die modulare und flexible Architektur der Open Source Software erlaubt es, die bereits kollaborativ zusammengetragene Programmierarbeit zur Datenextraktion mitzunutzen. Das vorgestellte semiautomatische Verfahren bringt auch bei der Verknüpfung von Normdaten erhebliche Vorteile für die Medienbearbeitung.
    Source
    LIBREAS: Library ideas. no.29, 2016 [urn:nbn:de:kobv:11-100238157]

Languages

  • e 1132
  • d 950
  • a 12
  • i 3
  • el 2
  • m 2
  • es 1
  • nl 1
  • More… Less…

Types

  • a 953
  • i 132
  • m 39
  • p 34
  • r 34
  • x 29
  • b 23
  • n 23
  • s 22
  • l 3
  • More… Less…

Themes

Subjects

Classifications