Search (5614 results, page 1 of 281)

  • × language_ss:"e"
  1. Chafe, W.L.: Meaning and the structure of language (1980) 0.51
    0.510556 = product of:
      0.8168895 = sum of:
        0.059795074 = weight(_text_:und in 220) [ClassicSimilarity], result of:
          0.059795074 = score(doc=220,freq=32.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.68565357 = fieldWeight in 220, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=220)
        0.030368807 = weight(_text_:der in 220) [ClassicSimilarity], result of:
          0.030368807 = score(doc=220,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 220, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=220)
        0.28322792 = weight(_text_:sprach in 220) [ClassicSimilarity], result of:
          0.28322792 = score(doc=220,freq=8.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            1.0551764 = fieldWeight in 220, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0546875 = fieldNorm(doc=220)
        0.059795074 = weight(_text_:und in 220) [ClassicSimilarity], result of:
          0.059795074 = score(doc=220,freq=32.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.68565357 = fieldWeight in 220, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=220)
        0.38370267 = sum of:
          0.30872902 = weight(_text_:literaturwissenschaft in 220) [ClassicSimilarity], result of:
            0.30872902 = score(doc=220,freq=8.0), product of:
              0.280241 = queryWeight, product of:
                7.122176 = idf(docFreq=96, maxDocs=44218)
                0.039347667 = queryNorm
              1.1016554 = fieldWeight in 220, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                7.122176 = idf(docFreq=96, maxDocs=44218)
                0.0546875 = fieldNorm(doc=220)
          0.0376562 = weight(_text_:29 in 220) [ClassicSimilarity], result of:
            0.0376562 = score(doc=220,freq=2.0), product of:
              0.13841279 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.039347667 = queryNorm
              0.27205724 = fieldWeight in 220, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0546875 = fieldNorm(doc=220)
          0.037317462 = weight(_text_:22 in 220) [ClassicSimilarity], result of:
            0.037317462 = score(doc=220,freq=2.0), product of:
              0.13778883 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.039347667 = queryNorm
              0.2708308 = fieldWeight in 220, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=220)
      0.625 = coord(5/8)
    
    Classification
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 430 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Allgemeines (Gesamtdarstellungen)
    Date
    22. 4.2007 12:21:29
    RVK
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 430 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Allgemeines (Gesamtdarstellungen)
  2. Borko, H.; Bernier, C.L.: Abstracting concepts and methods (1975) 0.27
    0.27076966 = product of:
      0.43323144 = sum of:
        0.048321716 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.048321716 = score(doc=929,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=929)
        0.024541702 = weight(_text_:der in 929) [ClassicSimilarity], result of:
          0.024541702 = score(doc=929,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.27922085 = fieldWeight in 929, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=929)
        0.2288827 = weight(_text_:sprach in 929) [ClassicSimilarity], result of:
          0.2288827 = score(doc=929,freq=4.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.85271126 = fieldWeight in 929, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0625 = fieldNorm(doc=929)
        0.048321716 = weight(_text_:und in 929) [ClassicSimilarity], result of:
          0.048321716 = score(doc=929,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=929)
        0.08316358 = product of:
          0.24949074 = sum of:
            0.24949074 = weight(_text_:literaturwissenschaft in 929) [ClassicSimilarity], result of:
              0.24949074 = score(doc=929,freq=4.0), product of:
                0.280241 = queryWeight, product of:
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.039347667 = queryNorm
                0.890272 = fieldWeight in 929, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.0625 = fieldNorm(doc=929)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Classification
    ES 930 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Informationsbehandlung
    RVK
    ES 930 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Informationsbehandlung
  3. McGarry, K.: Literacy, communication and libraries : a study guide (1991) 0.23
    0.22984263 = product of:
      0.3677482 = sum of:
        0.036616858 = weight(_text_:und in 1531) [ClassicSimilarity], result of:
          0.036616858 = score(doc=1531,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 1531, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1531)
        0.021473989 = weight(_text_:der in 1531) [ClassicSimilarity], result of:
          0.021473989 = score(doc=1531,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.24431825 = fieldWeight in 1531, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1531)
        0.20027237 = weight(_text_:sprach in 1531) [ClassicSimilarity], result of:
          0.20027237 = score(doc=1531,freq=4.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.74612236 = fieldWeight in 1531, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1531)
        0.036616858 = weight(_text_:und in 1531) [ClassicSimilarity], result of:
          0.036616858 = score(doc=1531,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41987535 = fieldWeight in 1531, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1531)
        0.07276813 = product of:
          0.21830438 = sum of:
            0.21830438 = weight(_text_:literaturwissenschaft in 1531) [ClassicSimilarity], result of:
              0.21830438 = score(doc=1531,freq=4.0), product of:
                0.280241 = queryWeight, product of:
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.039347667 = queryNorm
                0.778988 = fieldWeight in 1531, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1531)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Classification
    ES 115 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Soziolinguistik / Gesprochene Sprache, Schriftsprache, Literatursprache
    RVK
    ES 115 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Soziolinguistik / Gesprochene Sprache, Schriftsprache, Literatursprache
  4. Hutchins, W.J.; Somers, H.L.: ¬An introduction to machine translation (1992) 0.17
    0.16923103 = product of:
      0.27076966 = sum of:
        0.030201074 = weight(_text_:und in 4512) [ClassicSimilarity], result of:
          0.030201074 = score(doc=4512,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 4512, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4512)
        0.015338563 = weight(_text_:der in 4512) [ClassicSimilarity], result of:
          0.015338563 = score(doc=4512,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.17451303 = fieldWeight in 4512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4512)
        0.1430517 = weight(_text_:sprach in 4512) [ClassicSimilarity], result of:
          0.1430517 = score(doc=4512,freq=4.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.53294456 = fieldWeight in 4512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4512)
        0.030201074 = weight(_text_:und in 4512) [ClassicSimilarity], result of:
          0.030201074 = score(doc=4512,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34630734 = fieldWeight in 4512, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4512)
        0.05197724 = product of:
          0.15593171 = sum of:
            0.15593171 = weight(_text_:literaturwissenschaft in 4512) [ClassicSimilarity], result of:
              0.15593171 = score(doc=4512,freq=4.0), product of:
                0.280241 = queryWeight, product of:
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.039347667 = queryNorm
                0.55642 = fieldWeight in 4512, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4512)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Classification
    ES 960 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Übersetzung
    RVK
    ES 960 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Übersetzung
  5. Blair, D.C.: Language and representation in information retrieval (1991) 0.15
    0.14789452 = product of:
      0.23663123 = sum of:
        0.034168616 = weight(_text_:und in 1545) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1545,freq=32.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1545, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1545)
        0.012270851 = weight(_text_:der in 1545) [ClassicSimilarity], result of:
          0.012270851 = score(doc=1545,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.13961042 = fieldWeight in 1545, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1545)
        0.11444135 = weight(_text_:sprach in 1545) [ClassicSimilarity], result of:
          0.11444135 = score(doc=1545,freq=4.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.42635563 = fieldWeight in 1545, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.03125 = fieldNorm(doc=1545)
        0.034168616 = weight(_text_:und in 1545) [ClassicSimilarity], result of:
          0.034168616 = score(doc=1545,freq=32.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.39180204 = fieldWeight in 1545, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1545)
        0.04158179 = product of:
          0.12474537 = sum of:
            0.12474537 = weight(_text_:literaturwissenschaft in 1545) [ClassicSimilarity], result of:
              0.12474537 = score(doc=1545,freq=4.0), product of:
                0.280241 = queryWeight, product of:
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.039347667 = queryNorm
                0.445136 = fieldWeight in 1545, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.122176 = idf(docFreq=96, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1545)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Classification
    ES 930 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Informationsbehandlung
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    RVK
    ES 930 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Informationsbehandlung
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
  6. Fensel, A.: Towards semantic APIs for research data services (2017) 0.11
    0.105795056 = product of:
      0.21159011 = sum of:
        0.044846304 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.044846304 = score(doc=4439,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.51424015 = fieldWeight in 4439, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.08172335 = weight(_text_:methoden in 4439) [ClassicSimilarity], result of:
          0.08172335 = score(doc=4439,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 4439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.040174156 = weight(_text_:der in 4439) [ClassicSimilarity], result of:
          0.040174156 = score(doc=4439,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4570776 = fieldWeight in 4439, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
        0.044846304 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.044846304 = score(doc=4439,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.51424015 = fieldWeight in 4439, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4439)
      0.5 = coord(4/8)
    
    Abstract
    Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.157-169
  7. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.10
    0.103189 = product of:
      0.206378 = sum of:
        0.039550725 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.039550725 = score(doc=399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.08172335 = weight(_text_:methoden in 399) [ClassicSimilarity], result of:
          0.08172335 = score(doc=399,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.04555321 = weight(_text_:der in 399) [ClassicSimilarity], result of:
          0.04555321 = score(doc=399,freq=18.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5182773 = fieldWeight in 399, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.039550725 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.039550725 = score(doc=399,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
      0.5 = coord(4/8)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.149-158
  8. Mair, M.: Increasing the value of meta data by using associative semantic networks (2002) 0.10
    0.10246315 = product of:
      0.16394104 = sum of:
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.070048586 = weight(_text_:methoden in 4972) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4972,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.031880606 = weight(_text_:der in 4972) [ClassicSimilarity], result of:
          0.031880606 = score(doc=4972,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.36271852 = fieldWeight in 4972, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.02562646 = weight(_text_:und in 4972) [ClassicSimilarity], result of:
          0.02562646 = score(doc=4972,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.29385152 = fieldWeight in 4972, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4972)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 4972) [ClassicSimilarity], result of:
              0.032276746 = score(doc=4972,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 4972, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4972)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Momentan verbreitete Methoden zur Strukturierung von Information können ihre Aufgabe immer schlechter befriedigend erfüllen. Der Grund dafür ist das explosive Wachstum menschlichen Wissens. Diese Diplomarbeit schlägt als einen möglichen Ausweg die Verwendung assoziativer semantischer Netzwerke vor. Maschinelles Wissensmanagement kann wesentlich intuitiver und einfacher benutzbar werden, wenn man sich die Art und Weise zunutze macht, mit der das menschliche Gehirn Informationen verarbeitet (im Speziellen assoziative Verbindungen). Der theoretische Teil dieser Arbeit diskutiert verschiedene Aspekte eines möglichen Designs eines semantischen Netzwerks mit assoziativen Verbindungen. Außer den Grundelementen und Problemen der Visualisierung werden hauptsächlich Verbesserungen ausgearbeitet, welche ein leistungsstarkes Arbeiten mit einem solchen Netzwerk erlauben. Im praktischen Teil wird ein Netzwerk-Prototyp mit den wichtigsten herausgearbeiteten Merkmalen implementiert. Die Basis der Applikation bildet der Hyperwave Information Server. Dieser detailiiertere Design-Teil gewährt tieferen Einblick in Software Requirements, Use Cases und teilweise auch in Klassendetails. Am Ende wird eine kurze Einführung in die Benutzung des implementierten Prototypen gegeben.
    Date
    17. 3.2006 19:24:29
  9. Memmel, T.: User interface specification for interactive software systems : process-, method- and tool-support for interdisciplinary and collaborative requirements modelling and prototyping-driven user interface specification (2009) 0.10
    0.10040813 = product of:
      0.16065301 = sum of:
        0.028651254 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.028651254 = score(doc=4093,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 4093, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.070048586 = weight(_text_:methoden in 4093) [ClassicSimilarity], result of:
          0.070048586 = score(doc=4093,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.022542994 = weight(_text_:der in 4093) [ClassicSimilarity], result of:
          0.022542994 = score(doc=4093,freq=6.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.25648075 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.028651254 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.028651254 = score(doc=4093,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.328536 = fieldWeight in 4093, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 4093) [ClassicSimilarity], result of:
              0.032276746 = score(doc=4093,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 4093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4093)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    User-Interface-Spezifikationsprozesse involvieren unterschiedliche Akteure mit jeweils eigenen Ausdrucksmitteln. Dadurch ergeben sich Herausforderungen bei der Umsetzung von Anforderungen in gutes UI-Design. Durch einen Mangel an interdisziplinären und kollaborativen Methoden und Werkzeugen dominieren dabei vor allem textbasierte Spezifikationsdokumente. Diese reichen jedoch mangels Interaktivität nicht aus, um innovative und kreative Prozesse zu unterstützen. In diesem Buch wird eine Spezifikationstechnik vorgestellt, mit der Benutzer-, Aufgaben- und Interaktionsmodelle mit unterschiedlich detailliertem UI-Design verbunden werden. Dadurch entsteht eine erlebbare UI-Simulation, die im Vergleich zu interaktiven UI-Prototypen zusätzlich den visuellen Drill-Down zu Artefakten der Anforderungsermittlung erlaubt. Das Resultat sind interaktive UI-Spezifikationen, mit denen eine höhere Transparenz und Nachvollziehbarkeit im Spezifikationsprozess möglich sind.
    Date
    15. 7.2011 18:13:29
  10. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.10
    0.098224215 = product of:
      0.15715875 = sum of:
        0.031961814 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.031961814 = score(doc=2789,freq=112.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.02334953 = weight(_text_:methoden in 2789) [ClassicSimilarity], result of:
          0.02334953 = score(doc=2789,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.11451096 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.029424468 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.029424468 = score(doc=2789,freq=92.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.33477405 = fieldWeight in 2789, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.040461127 = weight(_text_:sprach in 2789) [ClassicSimilarity], result of:
          0.040461127 = score(doc=2789,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.15073948 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
        0.031961814 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.031961814 = score(doc=2789,freq=112.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.625 = coord(5/8)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  11. OCLC PICA übernimmt die Sisis Informationssysteme (2005) 0.10
    0.09690407 = product of:
      0.19380814 = sum of:
        0.04893133 = weight(_text_:und in 4212) [ClassicSimilarity], result of:
          0.04893133 = score(doc=4212,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 4212, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.058373824 = weight(_text_:methoden in 4212) [ClassicSimilarity], result of:
          0.058373824 = score(doc=4212,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 4212, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.037571654 = weight(_text_:der in 4212) [ClassicSimilarity], result of:
          0.037571654 = score(doc=4212,freq=24.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.42746788 = fieldWeight in 4212, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
        0.04893133 = weight(_text_:und in 4212) [ClassicSimilarity], result of:
          0.04893133 = score(doc=4212,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.561082 = fieldWeight in 4212, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4212)
      0.5 = coord(4/8)
    
    Abstract
    Mit dem Ziel, ihre Position als einer der führenden Hersteller von Bibliothekssystemen weiter auszubauen, übernimmt die OCLC PICA B.V. in Leiden (NL) die Sisis Informationssysteme GmbH in Oberhaching. Beide Unternehmen ergänzen sich hervorragend in technologischer Hinsichtwie auch im Servicebereich. Durch die entstehenden Synergien kann die neue, gestärkte Organisation ihre Produkte und Services künftig noch schneller und wirtschaftlicher anbieten.
    Content
    "Der stetige Wandel macht auch vor Bibliotheken nicht Halt. Immer wichtiger werden neue Geschäftsprozesse und die optimale Vernetzung der unterschiedlichen Arbeitsbereiche. Das Behaupten der Spitzenposition in diesem Markt erfordert ständige Investitionen und Ausbau der Ressourcen. Mit der Obernahme der Sisis Informationssysteme GmbH und den dort vorhandenen Kenntnissen und Fähigkeiten wurde ein effizienter Weg gefunden, die gegenwärtige Marktposition auszubauen und die Produktqualität weiter zu verbessern. Die Sisis Informationssysteme ist ein im Markt bekannter und erfolgreicher Anbieter von Bibliothekssystemen und Portallösungen mit Kunden in Deutschland, der Schweiz und den Niederlanden. Wie OCLC PICA suchte auch das Sisis Management nach Lösungen, um weiterhin in Produkte und Marktentwicklungen zu investieren und die erreichte Marktposition und Produktqualität auszubauen. Der erfolgte Zusammenschluss bietet hierfür die besten Voraussetzungen. Künftig werden OCLC PICA und Sisis ihre Technologien, Fähigkeiten und Methoden zum Vorteil ihrer Kunden gemeinsam nutzen und aufeinander abstimmen und einen besseren und vor allem kundennäheren Service anbieten können. Durch die Verstärkung des Entwicklungsbereichs kann der Ausbau der vorhandenen Produkte fachlich und funktional vorangetrieben werden. Die Kunden werden von der wechselseitigen Nutzung innovativer Komponenten und dem erweiterten Produktportfolio nur profitieren."
    Footnote
    Vgl.: www. oclcpica.org und www.sisis.de
  12. Preza, J.L.: Data science und analytics in libraries (2017) 0.09
    0.093577534 = product of:
      0.18715507 = sum of:
        0.038201675 = weight(_text_:und in 3916) [ClassicSimilarity], result of:
          0.038201675 = score(doc=3916,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.438048 = fieldWeight in 3916, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
        0.09339812 = weight(_text_:methoden in 3916) [ClassicSimilarity], result of:
          0.09339812 = score(doc=3916,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.45804384 = fieldWeight in 3916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
        0.017353604 = weight(_text_:der in 3916) [ClassicSimilarity], result of:
          0.017353604 = score(doc=3916,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.19743896 = fieldWeight in 3916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
        0.038201675 = weight(_text_:und in 3916) [ClassicSimilarity], result of:
          0.038201675 = score(doc=3916,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.438048 = fieldWeight in 3916, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3916)
      0.5 = coord(4/8)
    
    Abstract
    Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.244-248
  13. Höhfeld, S.; Kwiatkowski, M.: Empfehlungssysteme aus informationswissenschaftlicher Sicht : State of the Art (2007) 0.09
    0.08848308 = product of:
      0.17696616 = sum of:
        0.03624129 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.03624129 = score(doc=503,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.070048586 = weight(_text_:methoden in 503) [ClassicSimilarity], result of:
          0.070048586 = score(doc=503,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 503, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.034434993 = weight(_text_:der in 503) [ClassicSimilarity], result of:
          0.034434993 = score(doc=503,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3917808 = fieldWeight in 503, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
        0.03624129 = weight(_text_:und in 503) [ClassicSimilarity], result of:
          0.03624129 = score(doc=503,freq=16.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.41556883 = fieldWeight in 503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=503)
      0.5 = coord(4/8)
    
    Abstract
    Empfehlungssysteme tragen Inhalte individuell an Nutzer im WWW heran, basierend auf deren konkreten Bedürfnissen, Vorlieben und Interessen. Solche Systeme können Produkte, Services, Nutzer (mit analogen Interessen) uvm. vorschlagen und stellen damit - gerade im Web 2.0-Zeitalter - eine besondere Form der Personalisierung sowie des social networking dar. Damit bieten Empfehlungssysteme Anbietern im E-Commerce einen entscheidenden Marktvorteil, weshalb die Auswertung der Kundendaten bei großen Firmen wie Amazon, Google oder Ebay eine hohe Priorität besitzt. Aus diesem Grund wird im vorliegenden Artikel auf die Ansätze von Empfehlungssystemen, welche auf unterschiedliche Weise die Bedürfnisse des Nutzers aufgreifen bzw. "vorausahnen" und ihm Vorschläge (aus verschiedenen Bereichen) unterbreiten können, eingegangen. Der Artikel liefert eine Definition und Darstellung der Arbeitsweisen von Empfehlungssystemen. Dabei werden die verschiedenen Methodiken jener Dienste vergleichend erläutert, um ihre jeweiligen Vor- und Nachteile deutlich zu machen. Außerdem wird der Ontologie- und Folksonomy-Einsatz innerhalb von Empfehlungssystemen beleuchtet, um Chancen und Risiken der Anwendung von Methoden der Wissensrepräsentation für zukünftige Forschungsarbeiten einschätzen zu können.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.265-276
  14. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.09
    0.08817218 = product of:
      0.14107549 = sum of:
        0.027348235 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.027348235 = score(doc=3675,freq=82.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.039762102 = weight(_text_:der in 3675) [ClassicSimilarity], result of:
          0.039762102 = score(doc=3675,freq=168.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.45238948 = fieldWeight in 3675, product of:
              12.961481 = tf(freq=168.0), with freq of:
                168.0 = termFreq=168.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.040461127 = weight(_text_:sprach in 3675) [ClassicSimilarity], result of:
          0.040461127 = score(doc=3675,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.15073948 = fieldWeight in 3675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.027348235 = weight(_text_:und in 3675) [ClassicSimilarity], result of:
          0.027348235 = score(doc=3675,freq=82.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.31359464 = fieldWeight in 3675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3675)
        0.0061557847 = product of:
          0.018467354 = sum of:
            0.018467354 = weight(_text_:22 in 3675) [ClassicSimilarity], result of:
              0.018467354 = score(doc=3675,freq=6.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.1340265 = fieldWeight in 3675, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3675)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  15. Hauer, M.: Collaborative catalog enrichment : 4. Benutzertreffen intelligentCAPTURE / dandelon.com (2007) 0.09
    0.085645854 = product of:
      0.17129171 = sum of:
        0.03505797 = weight(_text_:und in 515) [ClassicSimilarity], result of:
          0.03505797 = score(doc=515,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40200004 = fieldWeight in 515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.030368807 = weight(_text_:der in 515) [ClassicSimilarity], result of:
          0.030368807 = score(doc=515,freq=32.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.34551817 = fieldWeight in 515, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.07080698 = weight(_text_:sprach in 515) [ClassicSimilarity], result of:
          0.07080698 = score(doc=515,freq=2.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.2637941 = fieldWeight in 515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
        0.03505797 = weight(_text_:und in 515) [ClassicSimilarity], result of:
          0.03505797 = score(doc=515,freq=44.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.40200004 = fieldWeight in 515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=515)
      0.5 = coord(4/8)
    
    Abstract
    dandelon.com hat im deutschsprachigen Raum die Suche nach wissenschaftlichen Büchern revolutioniert. Durch Scanning und Digitalisierung von Inhaltsverzeichnissen entsteht eine neue Qualität bei der wissenschaftlichen Literatursuche. Dahinter steckt mehr als eine einfache Volltextsuche, die Texte werden linguistisch analysiert und die Fragen mittels eines intellektuell konstruierten, großen semantischen Netzes mit 1,6 Millionen Fachbegriffen in 20 Sprachen interpretiert. Die gesamte Produktion geschieht kooperativ, länderübergreifend und ist offen für Bibliotheken, Dokumentationszentren, Verlage, Bücherhändler und andere Partner. Die Suche ist öffentlich und kostenfrei.
    Content
    "AGI - Information Management Consultants (www.agi-imc.de) hatte am 8. und 9. Mai 2007 zum vierten Mal Bibliotheken und Partner zum Erfahrungsaustausch nach Neustadt an der Weinstraße eingeladen. Die angereisten Teilnehmer betreiben bereits mittels intelligentCAPTURE die Produktion und über dandelon.com den Austausch und die Publikation (www.dandelon.com). Mittlerweile wird intelligentCAPTURE in Deutschland, Österreich, Liechtenstein, Italien und in der Schweiz eingesetzt. Die PDF-Dateien gelangen über einen Partner bis zur weltgrößten Bibliothek, der Library of Congress in Washington. In Deutschland ist der GBV - Gemeinsamer Bibliotheksverband in Göttingen (www.gbv.de) Partner von AGI und der größte Sekundärnutzer von dandelon.com. In dandelon.com sind derzeit über 220.000 Bücher suchbar, die Datenbank wächst täglich. Weitere 62.000 Titel werden nach einem Software-Update demnächst geladen; sie stammen aus Projekten mit der Staats-und Universitätsbibliothek Hamburg und der TIB Hannover. Vergleichbare Scanprojekte laufen derzeit in einer Spezialbibliothek in Hamburg, der UB Braunschweig und UB Mainz. AGI geht von 400 bis 500.000 Buchtiteln bis Ende 2007 aus. Erstmals sahen die Teilnehmer "intelligentCAPTURE mobile". Eine Lösung, welche die Scanner selbst zwischen die engsten Regale fährt und somit erheblich den Transportaufwand reduziert - der Scanner wird zum Buch transportiert, nicht Tonnen von Büchern zu Scannern. Gemeinsam mit dem führenden Anbieter von Bibliothekseinrichtungen Schulz Speyer (www.schulzspeyer.de) wurde intelligentCAPTURE mobil gemacht.
    Bis zu 530 Bücherinhaltsverzeichnisse wurden bisher von einer Person an einem Tag damit produziert. Rund 1.000 Bücher pro Tag ist die durchschnittliche Menge bei einem Scanteam mit drei Scanstationen. Digitalisiert wird immer nur der urheberrechtsfreie bzw. durch Lizenzierung zulässige Bereich. Neben Büchern werden auch Zeitschriften ausgewertet. So sind z.B. die Aufsätze aus der Zeitschrift "IWP - Information. Wissenschaft und Praxis" der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (http://www.dgi-info.de) komplett digital - und einige auch mit MP3Hördateien ergänzt. Anwendung finden seit 2006 die Lösungen von AGI auch in der Suche von Parlamentsmaterialien, also in der öffentlichen Verwaltung - konkret dem wirtschaftlich erfolgreichsten Bundesland Österreichs, Vorarlberg. Diese Leistung wird als Dienstleistung der Vorarlberger Landesbibliothek (http://vlb-katalog.vorarlberg.de) erbracht (www.vorarlberg.at/landtag/landtag/parlamentarischematerialien/recherche.htm)
    Das Highlight unter den Referaten bei dieser Tagung waren die Ausführungen des Vordenkers Andreas Prokoph, Lead Architect - Search Technologies and Portal Server Development, vom deutschen IBM Entwicklungslabor. Er sprach über Information Retrieval. Mit über 200 Patenten, darunter auch seinen eigenen, liegt IBM in diesem Forschungsfeld weit vorne. Die IBM Suchmaschine OMNIFIND soll möglichst bald die Suchtechnik hinter dandelon.com ersetzen und den Suchraum auf Kataloge, Open Archives, Verlage, Hochschul-Server ausdehnen. Schon heute basieren intelligentCAPTURE und dandelon.com weitgehend auf IBM-Technologien, konkret Lotus Notes & Domino und Lotus Sametime (www.ibm.corn/ lotus/hannover), aber auch auf integrierten Modulen anderer international führender Technologiespezialisten."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.311
  16. Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen : Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002 (2004) 0.08
    0.0848114 = product of:
      0.1696228 = sum of:
        0.033900622 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.033900622 = score(doc=5864,freq=56.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.06066386 = weight(_text_:methoden in 5864) [ClassicSimilarity], result of:
          0.06066386 = score(doc=5864,freq=6.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.29750824 = fieldWeight in 5864, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.04115769 = weight(_text_:der in 5864) [ClassicSimilarity], result of:
          0.04115769 = score(doc=5864,freq=80.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.46826762 = fieldWeight in 5864, product of:
              8.944272 = tf(freq=80.0), with freq of:
                80.0 = termFreq=80.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
        0.033900622 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.033900622 = score(doc=5864,freq=56.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5864)
      0.5 = coord(4/8)
    
    Abstract
    Mit der Entwicklung von Wissen und weltweiter Kommunikation kommt der Wissensorganisation zunehmend eine Schlüsselrolle zu. Einerseits geht es darum, zu verstehen, was Wissen ist und wie es strukturiert ist, andererseits möchte man die Technik der elektronischen Darstellung und Wiederauffindung des Wissens über den gegenwärtigen Stand hinaus weiterentwickeln. Dabei geht es um vielfältige Anwendungen, z. B. Wissensvertextung, Forschungsunterstützung, Bereitstellung von Wissen in Arbeits- und Entscheidungsprozessen, Weiterbildung, Ordnung, Wissenverknüpfung, Innovationsförderung und anderes. Schwerpunkt der Fachtagung Wissensorganisation 2002 sollte darum unter dem Motto "Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen", in Weiterführung ähnlicher Themen von den beiden vorhergehenden Tagungen, Methoden der Wissensorganisation und den Nutzen ihrer Anwendung im Rahmen von eLearning-Aktivitäten beleuchten sowie andererseits eLearning-Methoden für die Wissensorganisation aufgreifen. Didaktische Modelle wie etwa die Lernontologien stehen dabei ebenso zur Debatte wie Anwendungen von Werkzeugen der Wissensmodellierung oder der begrifflichen Wissensstrukturierung. Ziel soll es sein, den Beitrag der Wissensorganisation zur Entwicklung von Arbeitstechniken und neuer Lernkulturen herauszuarbeiten und gleichzeitig auch didaktische Konzepte für die Wissensorganisation fruchtbar zu machen. Folgende Thematiken können die Ausrichtung dieses Vorhabens beispielhaft skizzieren: - Terminologische Kontrolle in Online-Lernumgebungen - Wie zu organisieren ist (zu Verfahren der Wissensanordnung) - Grundlagen für die Gestaltung von Wissensorganisations- und Lernsystem - Der Benutzer als Lerner - der Lerner als Benutzer - Lehrer als Autoren (der Blick auf den Wissensproduzenten) Die Thematisierung praktischer Arbeitsfelder und Werkzeuge, z. B. die Metadatenorganisation mit XML, werden ergänzt durch vertiefende Reflexion über Wissen. Damit sollen Anregungen zur Konzeption neuer Wissenssysteme zusammengetragen werden. Hier stellen sich Fragen nach der Zerlegbarkeit des Wissens, der Bestimmung der Wissenseinheiten, der Sprachinvarianz des Wissens, der Wissensformalisierung, der punktgenauen Wissensbereitstellung zu spezifischen Problemen usw. Auch zu der Aufgabe, die Gesamtheit und Ganzheit des Wissens zu gewährleisten, werden Antworten gesucht. Der vorliegende Band enthält 20 Beiträge, inklusive drei ausgearbeiteten Versionen von Vorträgen, die zwar auf der 7. Deutschen ISKO Tagung 2001 in Berlin gehalten wurden, aber sich in das hier vorgehaltene Spektrum gut einpassen (von Maik Adomßent zu Lernenden Verwaltungen, von Alfred Gerstenkorn zu Verstehensmanagement und von Christina Rautenstrauch zu Tele-Tutoring). Weiter ist ein Beitrag von Thomas Sporer hinzugefügt worden, der die während der Tagung durchgeführte Video-Dokumentation beleuchtet, sowie ein Beitrag von Peter Ohly zu Semantischen Karten, der im Programm der vorherigen Tagung ausgewiesen war, aber wegen Programmänderungen erst 2002 in Regensburg vorgetragen wurde. Der Vortrag von Norbert Meder zu Metadaten für Lernende Verwaltungen wird 2004 in der Festschrift für Klaus Peter Treumann (Uni Bielefeld) veröffentlicht werden und der Beitrag von Christian Swertz zu Kooperativer Autorenschaft ist zu einem späteren Zeitpunkt zur Veröffentlichung vorgesehen.
    Content
    Enthält die Beiträge: 1. Grundlagen der Wissensorganisation Ingetraut DAHLBERG: Ontische Strukturen und Wissensmuster in der Wissensorganisation S.3 Gerd BAUER: Graphische Darstellung interdisziplinärer Wissensstrukturen S.15 Roland WAGNER_DÖBLER: Kognitive Mobilität und Zipfs "Principle of Least Effort" S.23 Gerhard RAHMSTORF: Übersicht über Methoden der Wissensorganisation S.33 Hannelore SCHOTT, Albert SCHRÖDER: Crosskonkordanzen von Klassifikationen und Thesauri S.41 2. Lehre und Lernen Alfred GERSTENKORN (von Berlin 2001): Wissensmanagement braucht Verstehensmanagement - Konzeption eines Instrumentariums zum Verstehen von Fachtexten für Experten, Neulinge und begrifflich geschulte Fachfremde S.53 Giselher H.J. REDEKER: Learning Objects - Sequenzierung auf Grundlage pädagogischer Metadaten S.67 Alois WACKER, Thorsten KOCH: "Die Arbeitslosen von Marienthal" - Ein Klassiker der Sozialforschung als multimediale Lerneinheit S.83 Christina RAUTENSTRAUCH (von Berlin 2001): Tele-Tutoring - Zur Didaktik des kommunikativen Handelns im virtuellen Lernraum S.93 Gerhard BUDIN: Mehrsprachige Wissensorganisation für den Aufbau von eLearning-Systemen für die Ökologie - Erfahrungsberichte zu den Projekten "Logos Gaias" und "Media Nova Naturae" S.105
    3. Kooperative Arbeitsumgebungen Maik ADOMßENT (von Berlin 2001): Gestaltungspotenziale kollaborativer Wissensnetzwerke in "Lernenden Verwaltungen" am Beispiel des praxisbezogenen Online-Kurses "Projektmanagement" der Universität Lüneburg S.123 Andreas WENDT: Standardisierungen im E-Learning-Bereich zur Unterstützung der automatisierten Komposition von Lernmaterialien S.133 Katja MRUCK, Marion NIEHOFF, Guenter MEY: Forschungsunterstützung in kooperativen Lernumgebungen: Das Beispiel der "Projektwerkstatt Qualitativen Arbeitens" als Offline- und Online-Begleitkonzept S.143 Irmhild ROGULLA, Mirko PREHN: Arbeitsprozessorientierte Weiterbildung: Prozess-Systematik als Basis für Informationsaneignung, Wissenserwerb und Kompetenzentwicklung S.151 4. Wissensmanagement und Informationsdesign Alexander SIGEL: Wissensmanagement in der Praxis: Wann, wie und warum hilft dort Wissensorganisation (nicht)? S.163 Johannes GADNER, Doris OHNESORGE, Tine ADLER, Renate BUBER: Repräsentation und Organisation von Wissen zur Entscheidungsunterstützung im Management S.175 Kerstin ZIMMERMANN: Die Anforderungen an ein wissenschaftliches Informationsportal für die Telekommunikation S.187 Philip ZERWECK: Gestaltung und Erstellung komplexer Informationsangebote im Web S.197 H. Peter OHLY (von Belin 2001): Erstellung und Interpretation von semantischen Karten am Beispiel des Themas "Soziologische Beratung" S.205 Thomas SPORER, Anton KÖSTLBACHER: Digitale Dokumentation von wissenschaftlichen Veranstaltungen S.219
    Series
    Fortschritte in der Wissensorganisation; Bd.8
  17. Hjoerland, B.: Theories of knowledge organization - theories of knowledge (2017) 0.08
    0.08329618 = product of:
      0.16659236 = sum of:
        0.029897537 = weight(_text_:und in 3494) [ClassicSimilarity], result of:
          0.029897537 = score(doc=3494,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 3494, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3494)
        0.056814834 = weight(_text_:der in 3494) [ClassicSimilarity], result of:
          0.056814834 = score(doc=3494,freq=28.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.6464053 = fieldWeight in 3494, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3494)
        0.029897537 = weight(_text_:und in 3494) [ClassicSimilarity], result of:
          0.029897537 = score(doc=3494,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 3494, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3494)
        0.04998244 = product of:
          0.07497366 = sum of:
            0.0376562 = weight(_text_:29 in 3494) [ClassicSimilarity], result of:
              0.0376562 = score(doc=3494,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.27205724 = fieldWeight in 3494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3494)
            0.037317462 = weight(_text_:22 in 3494) [ClassicSimilarity], result of:
              0.037317462 = score(doc=3494,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.2708308 = fieldWeight in 3494, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3494)
          0.6666667 = coord(2/3)
      0.5 = coord(4/8)
    
    Pages
    S.22-36
    Series
    Fortschritte in der Wissensorganisation; Bd.13
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  18. Jantos, D.; Pathmann, A.: Aufbereitungs- und Interpretationsmethoden für lückenhafte Informationen (2007) 0.08
    0.08149621 = product of:
      0.16299242 = sum of:
        0.029897537 = weight(_text_:und in 634) [ClassicSimilarity], result of:
          0.029897537 = score(doc=634,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.08172335 = weight(_text_:methoden in 634) [ClassicSimilarity], result of:
          0.08172335 = score(doc=634,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 634, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.021473989 = weight(_text_:der in 634) [ClassicSimilarity], result of:
          0.021473989 = score(doc=634,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.24431825 = fieldWeight in 634, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
        0.029897537 = weight(_text_:und in 634) [ClassicSimilarity], result of:
          0.029897537 = score(doc=634,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 634, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=634)
      0.5 = coord(4/8)
    
    Abstract
    Die großen Datenmengen, die heutzutage erfolgreich gemanagt und bearbeitet werden müssen, sind nicht nur eine Herausforderung für den Competitive Intelligence-Manager. Für eine effektive Analyse genügt es leider nicht, nur die Informationen zu sammeln, vielmehr müssen sie so aufbereitet werden, dass sie eine möglichst vollständige Datenbasis für die spätere Interpretation darstellen. Dabei sind immer wieder Lücken in der Datenbasis feststellbar. Um diese zu schließen, werden in diesem Beitrag fünf Methoden zur Aufbereitung von lückenhaften Informationen vorgestellt, auf ihre Einsatztauglichkeit untersucht und miteinander verglichen. Im weiteren Teil der Arbeit wird besonders die Analogieschlussmethode mit ihren Anwendungspotentialen ausführlich dargestellt.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.6/7, S.361-365
  19. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (1999) 0.08
    0.076855615 = product of:
      0.15371123 = sum of:
        0.018120645 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.018120645 = score(doc=5777,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.099063665 = weight(_text_:methoden in 5777) [ClassicSimilarity], result of:
          0.099063665 = score(doc=5777,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.018406278 = weight(_text_:der in 5777) [ClassicSimilarity], result of:
          0.018406278 = score(doc=5777,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.20941564 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
        0.018120645 = weight(_text_:und in 5777) [ClassicSimilarity], result of:
          0.018120645 = score(doc=5777,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.20778441 = fieldWeight in 5777, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5777)
      0.5 = coord(4/8)
    
    Classification
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
    RVK
    ST 230 [Informatik # Monographien # Software und -entwicklung # Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge]
  20. Tufte, E.R.: Envisioning information (1990) 0.08
    0.076855615 = product of:
      0.15371123 = sum of:
        0.018120645 = weight(_text_:und in 3733) [ClassicSimilarity], result of:
          0.018120645 = score(doc=3733,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.20778441 = fieldWeight in 3733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3733)
        0.099063665 = weight(_text_:methoden in 3733) [ClassicSimilarity], result of:
          0.099063665 = score(doc=3733,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 3733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=3733)
        0.018406278 = weight(_text_:der in 3733) [ClassicSimilarity], result of:
          0.018406278 = score(doc=3733,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.20941564 = fieldWeight in 3733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3733)
        0.018120645 = weight(_text_:und in 3733) [ClassicSimilarity], result of:
          0.018120645 = score(doc=3733,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.20778441 = fieldWeight in 3733, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3733)
      0.5 = coord(4/8)
    
    BK
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 4613
  • m 599
  • el 295
  • s 253
  • b 50
  • i 49
  • r 31
  • n 20
  • x 19
  • p 7
  • ? 5
  • d 2
  • h 1
  • v 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications