Search (656 results, page 1 of 33)

  • × language_ss:"d"
  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Adamzik, K.: Sprache : Wege zum Verstehen (2001) 0.68
    0.6777258 = product of:
      0.813271 = sum of:
        0.19014217 = weight(_text_:einzelne in 15) [ClassicSimilarity], result of:
          0.19014217 = score(doc=15,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.73571825 = fieldWeight in 15, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=15)
        0.19847338 = weight(_text_:sprachen in 15) [ClassicSimilarity], result of:
          0.19847338 = score(doc=15,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.75166345 = fieldWeight in 15, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=15)
        0.033022083 = weight(_text_:und in 15) [ClassicSimilarity], result of:
          0.033022083 = score(doc=15,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.33931053 = fieldWeight in 15, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=15)
        0.31586584 = weight(_text_:literaturen in 15) [ClassicSimilarity], result of:
          0.31586584 = score(doc=15,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.94825166 = fieldWeight in 15, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0625 = fieldNorm(doc=15)
        0.075767495 = product of:
          0.15153499 = sum of:
            0.15153499 = weight(_text_:allgemein in 15) [ClassicSimilarity], result of:
              0.15153499 = score(doc=15,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.65679336 = fieldWeight in 15, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=15)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Das Werk ist sowohl ein 'Lesebuch' über die Sprache als auch eine systematische Einführung in die Linguistik. Beginnend mit der Betrachtung der Sprache in ihrer Vielfältigkeit und des Sprachgebrauchs in seinem Kontext, widmet sich die Autorin im weiteren Verlauf detailliert der Frage nach dem Funktionieren von Sprache
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  2. Volli, U.: Semiotik : eine Einführung in ihre Grundbegriffe (2002) 0.66
    0.6620871 = product of:
      0.7945045 = sum of:
        0.14260663 = weight(_text_:einzelne in 2143) [ClassicSimilarity], result of:
          0.14260663 = score(doc=2143,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.5517887 = fieldWeight in 2143, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=2143)
        0.2105128 = weight(_text_:sprachen in 2143) [ClassicSimilarity], result of:
          0.2105128 = score(doc=2143,freq=8.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.79725945 = fieldWeight in 2143, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=2143)
        0.04953312 = weight(_text_:und in 2143) [ClassicSimilarity], result of:
          0.04953312 = score(doc=2143,freq=24.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.5089658 = fieldWeight in 2143, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2143)
        0.33502632 = weight(_text_:literaturen in 2143) [ClassicSimilarity], result of:
          0.33502632 = score(doc=2143,freq=8.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            1.0057728 = fieldWeight in 2143, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=2143)
        0.056825623 = product of:
          0.113651246 = sum of:
            0.113651246 = weight(_text_:allgemein in 2143) [ClassicSimilarity], result of:
              0.113651246 = score(doc=2143,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.49259502 = fieldWeight in 2143, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2143)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Ein Instrumentarium zur Analyse von Texten. Dieser Band präsentiert unterschiedliche Konzepte, die innerhalb der Semiotik im Lauf ihrer Geschichte und vor allem in den letzten Jahrzehnten entwickelt wurden und die für das Verständnis von Texten fruchtbar gemacht werden können. Vollis Hauptanliegen ist es, einen "semiotischen Werkzeugkasten" bereitzustellen. Seine besondere Leistung besteht darin, dass es ihm gelingt, die verschiedenen Verfahren der einzelnen semiotischen Richtungen in einer komplexen aber einheitlichen Analysemethode zu bündeln.
    BK
    18.00 / Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 730 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Semiotik (Semiologie, Zeichenlehre) / Allgemeines, semiotische Modelle
    18.00 / Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 730 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Semiotik (Semiologie, Zeichenlehre) / Allgemeines, semiotische Modelle
  3. Weiermann, S.L.: Semantische Netze und Begriffsdeskription in der Wissensrepräsentation (2000) 0.60
    0.59673506 = product of:
      0.7160821 = sum of:
        0.1663744 = weight(_text_:einzelne in 3001) [ClassicSimilarity], result of:
          0.1663744 = score(doc=3001,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.64375347 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.17366421 = weight(_text_:sprachen in 3001) [ClassicSimilarity], result of:
          0.17366421 = score(doc=3001,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.65770555 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.03336429 = weight(_text_:und in 3001) [ClassicSimilarity], result of:
          0.03336429 = score(doc=3001,freq=8.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.34282678 = fieldWeight in 3001, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.2763826 = weight(_text_:literaturen in 3001) [ClassicSimilarity], result of:
          0.2763826 = score(doc=3001,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.8297202 = fieldWeight in 3001, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3001)
        0.066296555 = product of:
          0.13259311 = sum of:
            0.13259311 = weight(_text_:allgemein in 3001) [ClassicSimilarity], result of:
              0.13259311 = score(doc=3001,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.57469416 = fieldWeight in 3001, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3001)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt (in Kürze): Einleitung. Wissensrepräsentation. Semantische Netze. Wissensrepräsentationssysteme. Empirische Analyse und Systemerweiterungen.
  4. Arntz, R.; Picht, H.; Mayer, F.: Einführung in die Terminologiearbeit (2004) 0.50
    0.50132364 = product of:
      0.60158837 = sum of:
        0.14260663 = weight(_text_:einzelne in 5015) [ClassicSimilarity], result of:
          0.14260663 = score(doc=5015,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.5517887 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.14885503 = weight(_text_:sprachen in 5015) [ClassicSimilarity], result of:
          0.14885503 = score(doc=5015,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5637476 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.055379715 = weight(_text_:und in 5015) [ClassicSimilarity], result of:
          0.055379715 = score(doc=5015,freq=30.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.5690411 = fieldWeight in 5015, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.23689938 = weight(_text_:literaturen in 5015) [ClassicSimilarity], result of:
          0.23689938 = score(doc=5015,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.71118873 = fieldWeight in 5015, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=5015)
        0.017847678 = product of:
          0.035695355 = sum of:
            0.035695355 = weight(_text_:22 in 5015) [ClassicSimilarity], result of:
              0.035695355 = score(doc=5015,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.23214069 = fieldWeight in 5015, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5015)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    BK
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    Classification
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    GN 9999 Germanistik. Niederlandistik. Skandinavistik / Deutsche Literatur / Moderne II: 1946 - 1990 / Literaturgeschichte / Einzelne Autoren / Sonstige
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    Date
    22. 4.2007 12:13:14
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    GN 9999 Germanistik. Niederlandistik. Skandinavistik / Deutsche Literatur / Moderne II: 1946 - 1990 / Literaturgeschichte / Einzelne Autoren / Sonstige
    Series
    Studien zu Sprache und Technik ; 2
  5. Voß, V.: Denken, verstehen, wissen : eine sprachvergleichende Untersuchung zu lexikalischen Bezeichnungen mentaler Tätigkeiten, Vorgänge und Zustände (2009) 0.48
    0.47898704 = product of:
      0.57478446 = sum of:
        0.11883886 = weight(_text_:einzelne in 504) [ClassicSimilarity], result of:
          0.11883886 = score(doc=504,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.4598239 = fieldWeight in 504, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=504)
        0.17542733 = weight(_text_:sprachen in 504) [ClassicSimilarity], result of:
          0.17542733 = score(doc=504,freq=8.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.6643829 = fieldWeight in 504, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=504)
        0.03574745 = weight(_text_:und in 504) [ClassicSimilarity], result of:
          0.03574745 = score(doc=504,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 504, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=504)
        0.19741614 = weight(_text_:literaturen in 504) [ClassicSimilarity], result of:
          0.19741614 = score(doc=504,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.59265727 = fieldWeight in 504, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0390625 = fieldNorm(doc=504)
        0.047354683 = product of:
          0.09470937 = sum of:
            0.09470937 = weight(_text_:allgemein in 504) [ClassicSimilarity], result of:
              0.09470937 = score(doc=504,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.41049585 = fieldWeight in 504, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=504)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Diese onomasiologische Arbeit untersucht sprachvergleichend lexikalische Benennungen mentaler Tätigkeiten (wie z.B. denken), Vorgänge (verstehen) und Zustände (wissen). Dabei stehen Gemeinsamkeiten und Unterschiede der sprachlichen Erschließung dieser Bereiche im Blickpunkt. Bereits im deutschen Wortschatz zeigen sich verschiedene Motivationsverhältnisse: von relativ durchsichtigen Ausdrücken (begreifen, erwägen) über als komplex analysierbare, aber nicht eigentlich durchschaubare Ausdrücke (überlegen, verstehen) bis zu undurchsichtigen Simplizia (denken, wissen). Die Leitfrage lautet: Welche Bilder wiederholen sich durch verschiedene Sprachen und Kulturen? Gibt es bestimmte Bahnen, in denen sich die bezeichnungsmäßige Erschließung bewegt? Es zeigt sich, daß es sich um einen sehr heterogenen Bereich mit zahlreichen Bezeichnungsmustern handelt, von denen sich aber drei Muster - Bezeichnungen aus den Quellbereichen GREIFEN/NEHMEN, SEHEN und HÖREN - als stark verbreitet in verschiedenen Unterbereichen und in unterschiedlichen Sprachen herauskristallisieren.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Imprint
    Münster : Verl-Haus Monsenstein und Vannerdat
  6. Wissenschaft, helldunkler Ort : Sprache im Dienst des Verstehens. Symposion ; (Wien) : 2007.03.22 (2008) 0.45
    0.4481821 = product of:
      0.53781855 = sum of:
        0.11883886 = weight(_text_:einzelne in 141) [ClassicSimilarity], result of:
          0.11883886 = score(doc=141,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.4598239 = fieldWeight in 141, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=141)
        0.124045864 = weight(_text_:sprachen in 141) [ClassicSimilarity], result of:
          0.124045864 = score(doc=141,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.46978965 = fieldWeight in 141, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=141)
        0.039520297 = weight(_text_:und in 141) [ClassicSimilarity], result of:
          0.039520297 = score(doc=141,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.40608138 = fieldWeight in 141, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=141)
        0.19741614 = weight(_text_:literaturen in 141) [ClassicSimilarity], result of:
          0.19741614 = score(doc=141,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.59265727 = fieldWeight in 141, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0390625 = fieldNorm(doc=141)
        0.057997413 = product of:
          0.115994826 = sum of:
            0.115994826 = weight(_text_:allgemein in 141) [ClassicSimilarity], result of:
              0.115994826 = score(doc=141,freq=6.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.5027527 = fieldWeight in 141, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=141)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Durch Sprache entsteht Wirklichkeit. Und Wirklichkeit bestimmt die Sprache: Ändern sich Lebens- und Kommunikationsformen, wandelt sich auch der Sprachgebrauch. Die Wissenschaft trägt in dieser Dynamik eine hohe Verantwortung. Welche sind die gegenwärtigen Sprachtrends? Was geschieht mit der Wortsprache, versinkt sie in Fluten von E-Mail-Kürzeln, Grafiken und Bildern? Wie kann Wissenschaft allgemein verständlich sein und dennoch den Anspruch der Wissenschaftlichkeit erfüllen? Brauchen wir in der Wissenschaft noch die deutsche Sprache? Wie behält die Sprache ihre Verständigungskraft? Wer ist verantwortlich für den Zustand der Sprache? Mit den AutorInnen - Monika Dannerer, Bernd-Christian Funk, Thomas Krämer-Badoni, Judith Macheiner, Hanspeter Ortner, Uwe Pörksen, WIlly Sanders, Jürgen Schiewe, Wendelin Schmidt-Dengler, Richard Schrodt, Julian Schutting und Marlene Streeruwitz - geht Herausgeberin Maria Nicolini auch den Marotten wissenschaftlicher AutorInnen nach. Sie stößt auf die Frage, ob und inwieweit eine bestimmte Ordnung in der Sprache überhaupt gelenkt werden soll; ob die Forschungsförderung Verantwortung für die Sprache hat und welche Erwartungen hinsichtlich Sprache an die Universitäten gestellt werden müssen. Ein Sammelband mit praktischen Anleitungen und Tipps für WissenschaftsautorInnen und alle, die Klarheit in der Sprache schätzen.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
  7. Arntz, R.; Picht, H.; Mayer, F.: Einführung in die Terminologiearbeit (2009) 0.39
    0.38916048 = product of:
      0.5837407 = sum of:
        0.14260663 = weight(_text_:einzelne in 219) [ClassicSimilarity], result of:
          0.14260663 = score(doc=219,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.5517887 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=219)
        0.14885503 = weight(_text_:sprachen in 219) [ClassicSimilarity], result of:
          0.14885503 = score(doc=219,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.5637476 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=219)
        0.055379715 = weight(_text_:und in 219) [ClassicSimilarity], result of:
          0.055379715 = score(doc=219,freq=30.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.5690411 = fieldWeight in 219, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=219)
        0.23689938 = weight(_text_:literaturen in 219) [ClassicSimilarity], result of:
          0.23689938 = score(doc=219,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.71118873 = fieldWeight in 219, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.046875 = fieldNorm(doc=219)
      0.6666667 = coord(4/6)
    
    BK
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    Classification
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    GN 9999 Germanistik. Niederlandistik. Skandinavistik / Deutsche Literatur / Moderne II: 1946 - 1990 / Literaturgeschichte / Einzelne Autoren / Sonstige
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    RVK
    ET 550 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Terminologie, Fachsprachen, sonstige Spezialbereiche
    GN 9999 Germanistik. Niederlandistik. Skandinavistik / Deutsche Literatur / Moderne II: 1946 - 1990 / Literaturgeschichte / Einzelne Autoren / Sonstige
    Series
    Studien zu Sprache und Technik ; 2
  8. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.29
    0.28705978 = product of:
      0.43058968 = sum of:
        0.095071085 = weight(_text_:einzelne in 92) [ClassicSimilarity], result of:
          0.095071085 = score(doc=92,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.36785913 = fieldWeight in 92, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=92)
        0.15690699 = weight(_text_:sprachen in 92) [ClassicSimilarity], result of:
          0.15690699 = score(doc=92,freq=10.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.59424216 = fieldWeight in 92, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=92)
        0.047663268 = weight(_text_:und in 92) [ClassicSimilarity], result of:
          0.047663268 = score(doc=92,freq=50.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.48975253 = fieldWeight in 92, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=92)
        0.13094832 = sum of:
          0.10715142 = weight(_text_:allgemein in 92) [ClassicSimilarity], result of:
            0.10715142 = score(doc=92,freq=8.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.46442303 = fieldWeight in 92, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
          0.023796905 = weight(_text_:22 in 92) [ClassicSimilarity], result of:
            0.023796905 = score(doc=92,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.15476047 = fieldWeight in 92, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
      0.6666667 = coord(4/6)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  9. Tolksdorf, R.: HTML und XML - die Sprachen des Web : Informationen aufbereiten und präsentieren im Internet (2003) 0.27
    0.26542315 = product of:
      0.3981347 = sum of:
        0.095071085 = weight(_text_:einzelne in 224) [ClassicSimilarity], result of:
          0.095071085 = score(doc=224,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.36785913 = fieldWeight in 224, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=224)
        0.17188299 = weight(_text_:sprachen in 224) [ClassicSimilarity], result of:
          0.17188299 = score(doc=224,freq=12.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.6509596 = fieldWeight in 224, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=224)
        0.031616237 = weight(_text_:und in 224) [ClassicSimilarity], result of:
          0.031616237 = score(doc=224,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3248651 = fieldWeight in 224, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=224)
        0.0995644 = sum of:
          0.075767495 = weight(_text_:allgemein in 224) [ClassicSimilarity], result of:
            0.075767495 = score(doc=224,freq=4.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.32839668 = fieldWeight in 224, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.03125 = fieldNorm(doc=224)
          0.023796905 = weight(_text_:22 in 224) [ClassicSimilarity], result of:
            0.023796905 = score(doc=224,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.15476047 = fieldWeight in 224, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=224)
      0.6666667 = coord(4/6)
    
    Abstract
    Mit einem Buch zum Thema HTML in der schnelllebigen Internetwelt eine 5. Auflage zu erreichen, kann sicher als eine Art Qualitätsbeweis gesehen werden. So gilt das Werk von Tolksdorf auch als Klassiker, und das nicht zu Unrecht. Der Autor hat das Buch zwar für Einsteiger konzipiert, vergisst aber nicht wichtige Details auszuführen, wenn es für das Verständnis eines Sachverhalts notwendig erscheint. Man merkt dem Buch immer wieder an, dass das Ziel nicht die schnelle Umsetzung (oberflächlichen) Wissens, sondern das grundsätzliche Verstehen ist. Deswegen werden auch technische Randbereiche wie XML, CGI, Programmierung, HTTP-Protokoll soweit besprochen, dass die Einordnung von (X)HTML in einen weiteren Kontext möglich wird. Dieses didaktische Prinzip resultiert sicher auch aus der akademischen Provenienz des Autors (Prof. der Freien Universität Berlin). In jedem Kapitel Übungsaufgaben, am Schluss Kurzreferenz zu HTML-Tags. Für Einsteiger, denen präzise Informationen wichtiger sind als poppiges Layout und lockerer Schreibstil. (1) [Christian Eidloth]
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    Content
    Mit einem Buch zum Thema HTML in der schnelllebigen Internetwelt eine 5. Auflage zu erreichen, kann sicher als eine Art Qualitätsbeweis gesehen werden. So gilt das Werk von Tolksdorf auch als Klassiker, und das nicht zu Unrecht. Der Autor hat das Buch zwar für Einsteiger konzipiert, vergisst aber nicht wichtige Details auszuführen, wenn es für das Verständnis eines Sachverhalts notwendig erscheint. Man merkt dem Buch immer wieder an, dass das Ziel nicht die schnelle Umsetzung (oberflächlichen) Wissens, sondern das grundsätzliche Verstehen ist. Deswegen werden auch technische Randbereiche wie XML, CGI, Programmierung, HTTP-Protokoll soweit besprochen, dass die Einordnung von (X)HTML in einen weiteren Kontext möglich wird. Dieses didaktische Prinzip resultiert sicher auch aus der akademischen Provenienz des Autors (Prof. der Freien Universität Berlin). In jedem Kapitel Übungsaufgaben, am Schluss Kurzreferenz zu HTML-Tags.
    Date
    22. 4.2007 12:48:03
    Footnote
    4. Aufl. u.d.T.: Die Sprachen des Web: HTML und XHTML
    Issue
    5., überarb. und erw. Aufl.
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  10. Information und Sprache : Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen (2006) 0.20
    0.19506358 = product of:
      0.23407629 = sum of:
        0.047535542 = weight(_text_:einzelne in 91) [ClassicSimilarity], result of:
          0.047535542 = score(doc=91,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.18392956 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.049618345 = weight(_text_:sprachen in 91) [ClassicSimilarity], result of:
          0.049618345 = score(doc=91,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.18791586 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.039014068 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.039014068 = score(doc=91,freq=134.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.40087974 = fieldWeight in 91, product of:
              11.575837 = tf(freq=134.0), with freq of:
                134.0 = termFreq=134.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.07896646 = weight(_text_:literaturen in 91) [ClassicSimilarity], result of:
          0.07896646 = score(doc=91,freq=4.0), product of:
            0.3331034 = queryWeight, product of:
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.0439102 = queryNorm
            0.23706292 = fieldWeight in 91, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.5860133 = idf(docFreq=60, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.018941874 = product of:
          0.037883747 = sum of:
            0.037883747 = weight(_text_:allgemein in 91) [ClassicSimilarity], result of:
              0.037883747 = score(doc=91,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.16419834 = fieldWeight in 91, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    Der vorliegende Band enthält Beiträge namhafter Autoren aus den Bereichen Informationswissenschaft, Computerlinguistik, Kommunikationswissenschaft, Bibliothekswesen und verwandten Fächern. Es werden sowohl aktuelle theoretische Themen behandelt, etwa zu Medientheorie und Internet, zum Verhältnis von Information und kulturellem Gedächtnis oder über Information im Museum, als auch praktische Anwendungen und Vorschläge gegeben, wie z.B. zur Automatischen Indexierung und zur Wissensrepräsentation.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Content
    Inhalt: Information und Sprache und mehr - eine Einleitung - Information und Kommunikation Wolf Rauch: Auch Information ist eine Tochter der Zeit Winfried Lenders: Information und kulturelles Gedächtnis Rainer Hammwöhner: Anmerkungen zur Grundlegung der Informationsethik Hans W. Giessen: Ehrwürdig stille Informationen Gernot Wersig: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Johann Haller, Anja Rütten: Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Rainer Kuhlen: In Richtung Summarizing für Diskurse in K3 Werner Schweibenz: Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung Manfred Thiel: Bedingt wahrscheinliche Syntaxbäume Jürgen Krause: Shell Model, Semantic Web and Web Information Retrieval Elisabeth Niggemann: Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek Christa Womser-Hacker: Zur Rolle von Eigennamen im Cross-Language Information Retrieval Klaus-Dirk Schmitz: Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
    Jiri Panyr: Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? Heinz-Dieter Maas: Indexieren mit AUTINDEX Wilhelm Gaus, Rainer Kaluscha: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten Klaus Lepsky: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte - Analysen und Entwicklungen Ilse Harms: Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen August- Wilhelm Scheer, Dirk Werth: Geschäftsregel-basiertes Geschäftsprozessmanagement Thomas Seeger: Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland Bernd Hagenau: Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 - Persönliches Jorgo Chatzimarkakis: Sprache und Information in Europa Alfred Gulden: 7 Briefe und eine Anmerkung Günter Scholdt: Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens Wolfgang Müller: Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden Heinz-Dirk Luckhardt: Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann Schriftenverzeichnis Harald H. Zimmermanns 1967-2005 - Projekte in Verantwortung von Harald H. Zimmermann - Adressen der Beiträgerinnen und Beiträger
    Footnote
    Rez. in Mitt. VÖB 59(2006) Nr.3, S.75-78 (O. Oberhauser): "Beim vorliegenden Buch handelt es sich um die Festschrift zum 65. Geburtstag des mit Ende des Sommersemesters 2006 in den Ruhestand getretenen Universitätsprofessors für Informationswissenschaft, Harald H. Zimmermann, jenes 1941 in Völklingen geborenen Computerlinguisten, der die Informationswissenschaft als akademische Disziplin in Deutschland mitbegründet und seit 1980 an der Universität des Saarlandes vertreten hat. Die insgesamt 26 Beiträge des von Professor Zimmermanns Mitarbeitern betreuten, optisch gediegen anmutenden Saur-Bandes gliedern sich - so das Inhaltsverzeichnis - in vier Themenschwerpunkte: - Information und Kommunikation - Sprache und Computer, insbesondere Information Retrieval und Automatische Indexierung - Analysen und Entwicklungen - Persönliches Die Aufsätze selbst variieren, wie bei Festschriften üblich bzw. unvermeidbar, hinsichtlich Länge, Stil, thematischem Detail und Anspruchsniveau. Neben wissenschaftlichen Beiträgen findet man hier auch Reminiszenzen und Literarisches. Die nachfolgende Auswahl zeigt, was mich selbst an diesem Buch interessiert hat:
    In Information und kulturelles Gedächtnis (S. 7-15) plädiert der Kommunikationswissenschaftler Winfried Lenders (Bonn) dafür, Information nicht mit dem zu identifizieren, was heute als (kulturelles) Gedächtnis bezeichnet wird. Information ist ein Prozess bzw. Vorgang und kein manifestes Substrat; sie setzt aber ein solches Substrat, nämlich das im (kulturellen) Gedächtnis abgespeicherte Wissen, voraus. Allerdings führt nicht jedes Informieren zu einer Vermehrung des kulturellen Gedächtnisses - das notwendige Auswahlkriterium liegt jedoch nicht in der grundsätzliche Möglichkeit zum Speichern von Inhalten. Es liegt auch nicht ausschliesslich in formalisierten Aussonderungsmechanismen wie Skartieren, Zitationsindizes und Relevanzrangreihen, sondern in der gesellschaftlichen Kommunikation schlechthin. Auch an die Verfügbarkeit des Schriftlichen ist das kulturelle Gedächtnis nicht gebunden, zumal ja auch in Kulturen der Oralität gesellschaftlich Wichtiges aufbewahrt wird. Rainer Hammwöhner (Regensburg) geht in Anmerkungen zur Grundlegung der Informationsethik (S. 17-27) zunächst auf die "Überversorgung" des Informationssektors mit Spezialethiken ein, wobei er neben der (als breiter angesehenen) Informationsethik konkurrierende Bereichsethiken wie Medienethik, Computerethik und Netzethik/Cyberethik thematisiert und Überlappungen, Abgrenzung, Hierarchisierung etc. diskutiert. Versuche einer diskursethischen wie einer normenethischen Begründung der Informationsethik sind nach Hammwöhner zum Scheitern verurteilt, sodass er einen pragmatistischen Standpunkt einnimmt, wonach Informationsethik ganz einfach "die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster" zu leisten habe. In diesem Konnex werden Fragen wie jene nach dem Guten, aber auch Aspekte wie die Bewahrung des kulturellen Erbes für spätere Generationen und der Erhalt der kulturellen Mannigfaltigkeit angesprochen. Der Beitrag des vor kurzem verstorbenen Gründungsvaters der deutschen Informationswissenschaft, Gernot Wersig (Berlin), ist mit Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (S. 35-46) überschrieben. Der Autor gibt darin einen kurzen Überblick über bisherige medientheoretische Ansätze und versucht sodann - ausgehend von den Werken Niklas Luhmanns und Herbert Stachowiaks - eine "vereinheitlichte Medientheorie" zu entwickeln. Dabei werden die Faktoren Kommunikation, Medien, Medienplattformen und -typologien, Medienevolution und schließlich die digitale Revolution diskutiert. Das Internet, so folgert Wersig, sei eine Medienplattform mit dem Potential, eine ganze Epoche zu gestalten. In Anlehnung an den bekannten Begriff "Gutenberg-Galaxis" spricht er hier auch von einer "Internet-Galaxie". Obwohl dieser Artikel viele interessante Gedanken enthält, erschließt er sich dem Leser leider nur schwer, da vieles vorausgesetzt wird und auch der gewählte Soziologenjargon nicht jedermanns Sache ist.
    In Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien - begriffliche Verwirrung oder konzeptionelle Vielfalt? (S. 139-151) gibt Jiri Panyr (München/Saarbrücken) eine gut lesbare und nützliche Übersicht über die im Titel des Beitrags genannten semantischen Repräsentationsformen, die im Zusammenhang mit dem Internet und insbesondere mit dem vorgeschlagenen Semantic Web immer wieder - und zwar häufig unpräzise oder gar unrichtig - Anwendung finden. Insbesondere die Ausführungen zum Modebegriff Ontologie zeigen, dass dieser nicht leichtfertig als Quasi-Synonym zu Thesaurus oder Klassifikation verwendet werden darf. Panyrs Beitrag ist übrigens thematisch verwandt mit jenem von K.-D. Schmitz (Köln), Wörterbuch, Thesaurus, Terminologie, Ontologie (S. 129-137). Abgesehen von dem einfallslosen Titel Wer suchet, der findet? (S. 107- 118) - zum Glück mit dem Untertitel Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek versehen - handelt es sich bei diesem Artikel von Elisabeth Niggemann (Frankfurt am Main) zwar um keinen wissenschaftlichen, doch sicherlich den praktischsten, lesbarsten und aus bibliothekarischer Sicht interessantesten des Buches. Niggemann gibt einen Überblick über die bisherige sachliche Erschliessung der bibliographischen Daten der inzwischen zur Deutschen Nationalbibliothek mutierten DDB, sowie einen Statusbericht nebst Ausblick über gegenwärtige bzw. geplante Verbesserungen der inhaltlichen Suche. Dazu zählen der breite Einsatz eines automatischen Indexierungsverfahrens (MILOS/IDX) ebenso wie Aktivitäten im klassifikatorischen Bereich (DDC), die Vernetzung nationaler Schlagwortsysteme (Projekt MACS) sowie die Beschäftigung mit Crosskonkordanzen (CARMEN) und Ansätzen zur Heterogenitätsbehandlung. Das hier von zentraler Stelle deklarierte "commitment" hinsichtlich der Verbesserung der sachlichen Erschließung des nationalen Online-Informationssystems erfüllt den eher nur Kleinmut und Gleichgültigkeit gewohnten phäakischen Beobachter mit Respekt und wehmutsvollem Neid.
    Mit automatischer Indexierung beschäftigen sich auch zwei weitere Beiträge. Indexieren mit AUTINDEX von H.-D. Mass (Saarbrücken) ist leider knapp und ohne didaktische Ambition verfasst, sodass man sich nicht wirklich vorstellen kann, wie dieses System funktioniert. Übersichtlicher stellt sich der Werkstattbericht Automatische Indexierung des Reallexikons zur deutschen Kunstgeschichte von K. Lepsky (Köln) dar, der zeigt, welche Probleme und Schritte bei der Digitalisierung, Indexierung und Web-Präsentation der Volltexte eines grossen fachlichen Nachschlagewerkes anfallen. Weitere interessante Beiträge befassen sich z.B. mit Summarizing-Leistungen im Rahmen eines e-Learning-Projektes (R. Kuhlen), mit dem Schalenmodell und dem Semantischen Web (J. Krause; aus nicht näher dargelegten Gründen in englischer Sprache) und mit der Akkreditierung/ Evaluierung von Hochschullehre und -forschung in Großbritannien (T. Seeger). In Summe liegt hier eine würdige Festschrift vor, über die sich der Gefeierte sicherlich gefreut haben wird. Für informationswissenschaftliche Spezialsammlungen und größere Bibliotheken ist der Band allemal eine Bereicherung. Ein Wermutstropfen aber doch: Obzwar mit Information und Sprache ein optisch ansprechend gestaltetes Buch produziert wurde, enthüllt eine nähere Betrachtung leider allzu viele Druckfehler, mangelhafte Worttrennungen, unkorrigierte grammatikalische Fehler, sowie auch Inkonsistenzen bei Kursivdruck und Satzzeichen. Lektoren und Korrektoren sind, so muss man wieder einmal schmerzlich zur Kenntnis nehmen, ein aussterbender Berufsstand."
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  11. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.12
    0.11585527 = product of:
      0.23171054 = sum of:
        0.15690699 = weight(_text_:sprachen in 100) [ClassicSimilarity], result of:
          0.15690699 = score(doc=100,freq=10.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.59424216 = fieldWeight in 100, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.03125 = fieldNorm(doc=100)
        0.03691981 = weight(_text_:und in 100) [ClassicSimilarity], result of:
          0.03691981 = score(doc=100,freq=30.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3793607 = fieldWeight in 100, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=100)
        0.037883747 = product of:
          0.075767495 = sum of:
            0.075767495 = weight(_text_:allgemein in 100) [ClassicSimilarity], result of:
              0.075767495 = score(doc=100,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.32839668 = fieldWeight in 100, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=100)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.11
    0.11287384 = product of:
      0.16931075 = sum of:
        0.071303315 = weight(_text_:einzelne in 729) [ClassicSimilarity], result of:
          0.071303315 = score(doc=729,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.27589434 = fieldWeight in 729, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.0526282 = weight(_text_:sprachen in 729) [ClassicSimilarity], result of:
          0.0526282 = score(doc=729,freq=2.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.19931486 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.03645539 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03645539 = score(doc=729,freq=52.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.37458867 = fieldWeight in 729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.008923839 = product of:
          0.017847678 = sum of:
            0.017847678 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.017847678 = score(doc=729,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  13. Hüttenegger, G.: Open Source Knowledge Management [Open-source-knowledge-Management] (2006) 0.10
    0.1009705 = product of:
      0.201941 = sum of:
        0.11883886 = weight(_text_:einzelne in 652) [ClassicSimilarity], result of:
          0.11883886 = score(doc=652,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.4598239 = fieldWeight in 652, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=652)
        0.03574745 = weight(_text_:und in 652) [ClassicSimilarity], result of:
          0.03574745 = score(doc=652,freq=18.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 652, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=652)
        0.047354683 = product of:
          0.09470937 = sum of:
            0.09470937 = weight(_text_:allgemein in 652) [ClassicSimilarity], result of:
              0.09470937 = score(doc=652,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.41049585 = fieldWeight in 652, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=652)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Buch präsentiert die vielfältigen Möglichkeiten von Open-Source-Software zur Unterstützung von Wissensmanagement. Der Autor erläutert die Grundlagen und Einsatzmöglichkeiten von Open-Source-Software beim Knowledge Management und entwickelt auf Grund von Analysen konkreter Open-Source-Produkte Entscheidungskriterien und Anleitungen für die Verbesserung von Knowledge Management- und Open-Source-Software. Kosteneinsparungen und Effizienz finden dabei besondere Beachtung.
    Classification
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    ST 230 Informatik / Monographien / Software und -entwicklung / Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge
    Content
    Inhalt: Definitionen von Knowledge, Knowledge Management und Open Source.- Vision eines Knowledge Management- (KM-) Systems.- Vorhandene Open-Source-Basis.- Technische Basis.- Start mit einem Groupware System.- Alternativ Start mit einem Content-Management-System.- Einbinden von Groupware oder CMS bzw. Erweitern um DMS.- Weiterer Ausbau.- Zusammenfassungen, Abschluss und Ausblick.- Literaturverzeichnis.- Index.
    RVK
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    ST 230 Informatik / Monographien / Software und -entwicklung / Software allgemein, (Einführung, Lehrbücher, Methoden der Programmierung) Software engineering, Programmentwicklungssysteme, Softwarewerkzeuge
  14. Lux, C.; Sühl-Strohmenger, W.: Teaching Library in Deutschland : Vermittlung von Informationsund Medienkompetenz als Kernaufgabe für Öffentliche und Wissenschaftliche Bibliotheken (2004) 0.09
    0.08898276 = product of:
      0.17796552 = sum of:
        0.13445082 = weight(_text_:einzelne in 1427) [ClassicSimilarity], result of:
          0.13445082 = score(doc=1427,freq=8.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.52023137 = fieldWeight in 1427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=1427)
        0.031616237 = weight(_text_:und in 1427) [ClassicSimilarity], result of:
          0.031616237 = score(doc=1427,freq=22.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3248651 = fieldWeight in 1427, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1427)
        0.011898452 = product of:
          0.023796905 = sum of:
            0.023796905 = weight(_text_:22 in 1427) [ClassicSimilarity], result of:
              0.023796905 = score(doc=1427,freq=2.0), product of:
                0.15376605 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0439102 = queryNorm
                0.15476047 = fieldWeight in 1427, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1427)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    "Teaching Library" - dies ist nicht nur der Titel dieses Buches, sondern vor allem auch eine selbstbewusste Behauptung in einem Land, in dem die Politik die Bibliotheken als Partner des Lernens noch nicht entdeckt hat, in dem die kommunalen Gremien in Zeiten des Sparens die Ausgaben für Bibliotheken als angeblich freiwillige Leistungen in dem Feld der Kultur neben Museen und Theatern munter kürzen. Dabei belegen die internationalen Studien (PISA, TIMSS etc.) zur Leistungsfähigkeit von Bildungssystemen bereits jetzt schon erhebliche Defizite des deutschen Bildungswesens, insbesondere hinsichtlich der Schlüsselqualifikationen, die unter "Literacy" gefasst werden. Als notwendige Antwort auf dieses Defizit empfehlen die Autoren dieses Buches die viel pointiertere Einbindung der gesamten Bibliotheken in Deutschland in unser Bildungssystem, um sowohl die Unentbehrlichkeit zu unterstreichen, als auch Synergien mit anderen Bildungsträgern zu nutzen. Das vorliegende Buch zeigt eindrucksvoll die erstaunliche Vielfalt der Initiativen und den Einfallsreichtum der Bibliothekare in dieser Hinsicht.
    Classification
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
    AN 77500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Bibliotheksbenutzer, Benutzerforschung, Benutzeranalyse
    AN 80852 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Einzelne deutsche Bibliotheken / Bibliotheken S / Stuttgart / Universitätsbibliothek Hohenheim
    Date
    22. 2.2008 14:17:00
    RVK
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
    AN 77500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Bibliotheksbenutzer, Benutzerforschung, Benutzeranalyse
    AN 80852 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Einzelne deutsche Bibliotheken / Bibliotheken S / Stuttgart / Universitätsbibliothek Hohenheim
  15. Möller, E.: ¬Die heimliche Medienrevolution : wie Weblogs, Wikis und freie Software die Welt verändern (2006) 0.08
    0.08366265 = product of:
      0.1673253 = sum of:
        0.095071085 = weight(_text_:einzelne in 142) [ClassicSimilarity], result of:
          0.095071085 = score(doc=142,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.36785913 = fieldWeight in 142, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.03437047 = weight(_text_:und in 142) [ClassicSimilarity], result of:
          0.03437047 = score(doc=142,freq=26.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3531656 = fieldWeight in 142, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=142)
        0.037883747 = product of:
          0.075767495 = sum of:
            0.075767495 = weight(_text_:allgemein in 142) [ClassicSimilarity], result of:
              0.075767495 = score(doc=142,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.32839668 = fieldWeight in 142, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=142)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Medien bedeuten Macht. Kann das Internet Bertelsmann, Time Warner und Rupert Murdoch gefährlich werden? Großunternehmen versuchen auch die neuen Medien zu kapitalisieren, doch im globalen, dezentralen Kommunikationsnetz gelten andere Spielregeln. Auf der Basis freier Software, die von jedem kostenlos verändert und kopiert werden kann, entstehen völlig neue Medienformen. Millionen von "Weblogs" genannten Online-Postillen ergänzen die klassische Medienlandschaft um unabhängige Stimmen. Erste Experimente mit cleveren Finanzierungsmodellen zeigen, dass auf dieser Basis auch echter Journalismus möglich ist. Gleichzeitig arbeiten Tausende von Freiwilligen an offenen Wissensdatenbanken wie der gigantischen Enzyklopädie Wikipedia. Eine Konvergenz von Wikis und Weblogs zeichnet sich ab. Massive Online-Zusammenarbeit in den Bereichen Nachrichten, Wissen, Kunst und Kultur scheint unausweichlich oder findet bereits statt. Das revolutionäre Potenzial des Internet, das erst übertrieben, dann belächelt wurde, nimmt Konturen an. Dieses Buch erfasst den aktuellen Stand der Entwicklung, wagt einen vorsichtigen Blick in die Zukunft und liefert das notwendige Grundwissen zur direkten Partizipation an der neuen Medienwelt.
    Classification
    MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
    ST 205 [Informatik # Monographien # Vernetzung, verteilte Systeme # Internet allgemein]
    MF 1500 [Politologie # Politische Systeme: einzelne Elemente # Öffentliche Meinung (politische Kommunikation) # Presse, Massenmedien]
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
    Issue
    2., erw. und aktualisierte Aufl.
    RVK
    MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
    ST 205 [Informatik # Monographien # Vernetzung, verteilte Systeme # Internet allgemein]
    MF 1500 [Politologie # Politische Systeme: einzelne Elemente # Öffentliche Meinung (politische Kommunikation) # Presse, Massenmedien]
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
  16. Meier, A.: Relationale Datenbanken : eine Einführung für die Praxis (2001) 0.08
    0.08297181 = product of:
      0.24891543 = sum of:
        0.19847338 = weight(_text_:sprachen in 93) [ClassicSimilarity], result of:
          0.19847338 = score(doc=93,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.75166345 = fieldWeight in 93, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0625 = fieldNorm(doc=93)
        0.05044206 = weight(_text_:und in 93) [ClassicSimilarity], result of:
          0.05044206 = score(doc=93,freq=14.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.51830536 = fieldWeight in 93, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=93)
      0.33333334 = coord(2/6)
    
    Abstract
    Gibt eine umfassende Einführung in das Gebiet der relationalen Datenbanken. Es ist das erste deutschsprachige Werk, das sich auf die relationale Datenbanktechnologie beschränkt und zugleich die Datenbankentwurfsmethodik, Sprachaspekte, Systemarchitekturen und neuere Technologien umfassend und für den Praktiker verständlich behandelt. Bei der Datenmodellierung werden Abbildungsregeln zum Überführen eines Entitäten-Beziehungsmodells in ein relationales Datenbankschema behandelt, Normalformen diskutiert und ein unternehmensweites Datenmodell veranschaulicht. Die Diskussion relationaler Abfrage- und Manipulationssprachen geht grundlegend auf die Relationenalgebra ein, erläutert den Begriff relational vollständiger Sprachen und gibt einen Überblick über die bedeutenden Sprachen SQL, QUEL und QBE
  17. Krüger, A.: Angriffe aus dem Netz : die neue Szene des digitalen Verbrechens (2006) 0.08
    0.079958625 = product of:
      0.15991725 = sum of:
        0.095071085 = weight(_text_:einzelne in 141) [ClassicSimilarity], result of:
          0.095071085 = score(doc=141,freq=4.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.36785913 = fieldWeight in 141, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=141)
        0.026962416 = weight(_text_:und in 141) [ClassicSimilarity], result of:
          0.026962416 = score(doc=141,freq=16.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.27704588 = fieldWeight in 141, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=141)
        0.037883747 = product of:
          0.075767495 = sum of:
            0.075767495 = weight(_text_:allgemein in 141) [ClassicSimilarity], result of:
              0.075767495 = score(doc=141,freq=4.0), product of:
                0.23071943 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0439102 = queryNorm
                0.32839668 = fieldWeight in 141, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03125 = fieldNorm(doc=141)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Darstellung der vielfältigen Bedrohungen durch Viren, Trojaner, Spam-Mails, Adware, Phishing-Versuche und DDoS-Angriffe. Der sehr lesenswerte Band berichtet über die vielfältigen Bedrohungen durch Viren, Trojaner, Spam-Mails, Adware, Phishing-Versuche und die DDoS-Angriffe, bei denen die Webseiten von Unternehmen überschwemmt werden und tagelang nicht mehr erreichbar sind. Gegen manche Verbrecher, etwa die Versender von Unikat-Trojanern, sind Antiviren-Programme machtlos, weil diese Trojaner nur an wenige Unternehmen verschickt werden und der Analyse entgehen. Bei der großen Menge der verschickten E-Mails mit schädlichen Anhängen ist das Fazit aber "Menschliches Versagen". Die Empfänger können selbst dämlichen Betreffzeilen nicht widerstehen; viele Systemadministratoren spielen Sicherheitspatches erst mit tage- oder wochenlanger Verspätung ein. Andererseits sind die Gesetze vor allem gegen Spamming in vielen Ländern (auch in den USA) zu lasch oder nicht vorhanden. Die Möglichkeiten, erbeutetes Geld per Blitzüberweisung in andere Länder zu verschieben, werden in diesem Band ebenfalls ausführlich dokumentiert. - Wer das Buch liest, wird nicht allen Schnüffelversuchen entgehen, aber vorsichtiger handeln.
    Classification
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
    ST 277 [Informatik # Monographien # Software und -entwicklung # Sonstiges zur Sicherheit in der Datenverarbeitung]
    ST 205 [Informatik # Monographien # Vernetzung, verteilte Systeme # Internet allgemein]
    PH 8840-PH 8940 [Rechtswissenschaft # Strafrecht, Strafverfahrensrecht, Kriminologie # Kriminologie # Einzelne Deliktsgruppen # Weitere Deliktsgruppen]
    RVK
    AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
    ST 277 [Informatik # Monographien # Software und -entwicklung # Sonstiges zur Sicherheit in der Datenverarbeitung]
    ST 205 [Informatik # Monographien # Vernetzung, verteilte Systeme # Internet allgemein]
    PH 8840-PH 8940 [Rechtswissenschaft # Strafrecht, Strafverfahrensrecht, Kriminologie # Kriminologie # Einzelne Deliktsgruppen # Weitere Deliktsgruppen]
  18. Breidbach, O.: Neue Wissensordnungen : wie aus Informationen und Nachrichten kulturelles Wissen entsteht (2008) 0.08
    0.07853293 = product of:
      0.15706585 = sum of:
        0.05041906 = weight(_text_:einzelne in 3037) [ClassicSimilarity], result of:
          0.05041906 = score(doc=3037,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.19508676 = fieldWeight in 3037, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3037)
        0.031973492 = weight(_text_:und in 3037) [ClassicSimilarity], result of:
          0.031973492 = score(doc=3037,freq=40.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.328536 = fieldWeight in 3037, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3037)
        0.0746733 = sum of:
          0.056825623 = weight(_text_:allgemein in 3037) [ClassicSimilarity], result of:
            0.056825623 = score(doc=3037,freq=4.0), product of:
              0.23071943 = queryWeight, product of:
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0439102 = queryNorm
              0.24629751 = fieldWeight in 3037, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.254347 = idf(docFreq=627, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3037)
          0.017847678 = weight(_text_:22 in 3037) [ClassicSimilarity], result of:
            0.017847678 = score(doc=3037,freq=2.0), product of:
              0.15376605 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0439102 = queryNorm
              0.116070345 = fieldWeight in 3037, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3037)
      0.5 = coord(3/6)
    
    Abstract
    Anstelle von materiellen Dingen wird heute in unserer Gesellschaft vorwiegend Wissen produziert. Kultur als der Zusammenhang aller möglichen Interaktionen in einer menschlichen Gesellschaft fixiert und transformiert das historisch erwachsene Wissen, in dem sich diese Kultur etabliert. Wissen ist dabei auch nicht einfach die Summe der einzelnen Köpfe dieser Kultur, da diese ihr Wissen ja immer erst im Zusammenhang der Kultur, in der sie agieren, gewinnen und fixieren können. Was sind dann aber die Kriterien, an denen Wissen und Information zu bemessen sind, und inwieweit sind Wissen und Information dabei dann überhaupt voneinander abzugrenzen? Informationen sind zunächst einfach nur Mitteilungen oder Nachrichten. Solche Informationen sind, suche ich sie zu verwenden, dann aber auch zu bewerten, also auf den Gesamtkontext der schon verfügbaren Informationen zu beziehen. Diese Informationen werden demnach einander zugeordnet. Erst in dieser Ordnung entsteht Wissen. Schließlich werden in der Strukturierung der Informationen die Nachrichten zu den Teilen eines Ganzen, in dem sich ein Bild formiert, was mehr ist als die Summe seiner Teile. Der Autor untersucht die Bezugsrahmen, in denen Wissen entsteht. Dabei entdeckt er eine Art übergeordnete Instanz, die einzelne Daten zu bewerten erlaubt. Der Text berührt sowohl alte philosophische Traditionen wie auch - ausgehend von neurobiologischen Befunden - die mathematisch-technischen Funktionen einer modernen Wissenschaftskultur.
    BK
    02.00 / Wissenschaft und Kultur allgemein: Allgemeines
    Classification
    NU 1500 Geschichte / Geschichte der Wissenschaften und des Unterrichtswesens / Geschichte der Wissenschaften / Allgemeines
    02.00 / Wissenschaft und Kultur allgemein: Allgemeines
    Date
    22. 7.2009 13:43:50
    Footnote
    Rez. in: BuB 61(2009) H.4, S.281-282 (J. Eberhardt): "Die Bücher der im letzten Jahr gestarteten »Edition UnseId« sind dünn und preisgünstig, sie zielen damit auf ein größeres Publikum. Anspruchsvoll streben die ersten Bände der Edition danach, den Lesern die Welt zu erklären, oder kantischer noch, die Bedingungen einer solchen Welterklärung zu diskutieren. In diese Kategorie fällt auch der Band von Olaf Breidbach über die »Neuen Wissensordnungen«, der eben nicht bestimmtes Wissen vermitteln möchte, sondern das Wissen für sich als kulturelles und historisches Phänomen in den Blick nimmt. Das lässt eigentlich - für Bibliothekare als Arbeiter an oder in der Wissensordnung zumal - interessante Lektüre erwarten. Doch dürfte es auch außerhalb unseres Berufsstandes nicht allzu viele Leser geben, die Honig aus dem Büchlein saugen können, weil der Jenaer Professor für die Geschichte der Naturwissenschaften mehr Mühe auf die Ausbreitung seines reichen Materials denn auf seine Aufbereitung verwandt hat. Das Buch wird regiert von zwei Grundgedanken, die Breidbach verschiedentlich wiederholt. Der erste steckt auch im Titel: »Information« und »Wissen« sind nicht dasselbe, sondern Wissen entsteht erst aus Information, und zwar durch Interpretation und Reflexion. Wissen ist »interpretierte Information« (Seite 12, 168 und weitere). Der zweite betrifft das Wesen der Interpretation: Eine neue Information kann nur interpretiert werden, indem man sie in Beziehung setzt zu dem, was schon gewusst wird, also indem man sie in das »Netz« seines Wissens einbezieht - und dies führt notwendig dazu, dass das Netz sich verändert. Wissensordnung muss man dynamisch verstehen, nicht statisch! Das Buch versucht zu erklären, was diese beiden Gedanken bedeuten und welche Folgen sie haben dafür, wie Wissensordnung zu modellieren wäre. Dem ersten Gedanken nähert man sich vielleicht am einfachsten über einen Vergleich mit der platonischen Wissensauffassung, die als Diskussionsfolie auch noch die zeitgenössische Erkenntnistheorie regiert. . . .
    ... ist Interessierten eher David Weinbergers weniger anspruchsvolle, dafür aber ansprechendere und mehr an der bibliothekarischen Praxis orientierte, gut gelaunte kleine Kultur- und Handlungsgeschichte der Wissensordnung »Everything is miscellaneous« zu empfehlen (siehe auch die Rezension von Jürgen Plieninger in BuB Heft 10/2007, Seite 750/751). Das Buch liegt mittlerweile in deutscher Übersetzung (»Das Ende der Schublade«, Hanser 2008) vor."
    RVK
    NU 1500 Geschichte / Geschichte der Wissenschaften und des Unterrichtswesens / Geschichte der Wissenschaften / Allgemeines
  19. Bischopinck, Y. von; Ceyp, M.: Suchmaschinen-Marketing : Konzepte, Umsetzung und Controlling (2007) 0.08
    0.07548094 = product of:
      0.2264428 = sum of:
        0.20167623 = weight(_text_:einzelne in 482) [ClassicSimilarity], result of:
          0.20167623 = score(doc=482,freq=8.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.78034705 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
        0.02476656 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.02476656 = score(doc=482,freq=6.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.2544829 = fieldWeight in 482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Internet hat in den letzten zehn Jahren das Dialogmarketing ganz wesentlich bereichert. Allerdings fehlen vielfach systematische Abhandlungen über den konkreten Einsatz ausgewählter Online-Marketing-Instrumente. Das vom Autorenteam Bischopinck/Ceyp vorgelegte Kompendium zum Suchmaschinenmarketing (SEO - Search Engine Optimization und SEM - Search Engine Marketing) schließt eine zentrale Lücke. Alle Parameter des Suchmaschinenmarketings werden systematisch erläutert und anwendungsorientiert erklärt. Konkrete Beispiele verdeutlichen die paxisgerechte Umsetzung.
    Classification
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    RVK
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
  20. Ferber, R.: Information Retrieval : Data Mining-Verfahren für Textsammlungen und das Web (2003) 0.07
    0.06989313 = product of:
      0.13978626 = sum of:
        0.04201588 = weight(_text_:einzelne in 1848) [ClassicSimilarity], result of:
          0.04201588 = score(doc=1848,freq=2.0), product of:
            0.25844428 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0439102 = queryNorm
            0.1625723 = fieldWeight in 1848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
        0.062022932 = weight(_text_:sprachen in 1848) [ClassicSimilarity], result of:
          0.062022932 = score(doc=1848,freq=4.0), product of:
            0.26404554 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0439102 = queryNorm
            0.23489483 = fieldWeight in 1848, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
        0.03574745 = weight(_text_:und in 1848) [ClassicSimilarity], result of:
          0.03574745 = score(doc=1848,freq=72.0), product of:
            0.09732112 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0439102 = queryNorm
            0.3673144 = fieldWeight in 1848, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1848)
      0.5 = coord(3/6)
    
    Abstract
    Die inhaltliche Suche nach Textdokumenten - das Information Retrieval -spielte sich bis vor einigen Jahren vornehmlich in Bibliotheken und Archiven ab. Durch das WWW sind zunehmend auch Privatpersonen und Firmen mit dieser Aufgabe konfrontiert. Dieses Buch vermittelt die grundlegenden Modelle und Methoden des Information Retrieval, beschreibt an Beispielen aktuelle Entwicklungen - insbesondere im Bereich der Websuche - und' stellt sie in einen theoretischen Zusammenhang. Einführend werden klassische Ansätze wie hierarchische Klassifikationen, boolesche Suche, das Vektorraummodell und Bewertungsmethoden für Suchverfahren erläutert. Es folgt eine Einführung in Methoden des Data Mining, die zur Unterstützung der Suche dienen können. Anschließend werden unterschiedliche Retrieval-Modelle und konkrete Systeme vorgestellt. In einem eigenen Schwerpunkt widmet sich das Buch dem WWW und behandelt aus der Perspektive des Information Retrieval die Web-Auszeichnungssprachen XML und HTML, Metadatensysteme wie Dublin Core sowie die Beschreibungssprache RDF. Schließlich werden die Rahmenbedingungen der Web-Suche und verschiedene Verfahren wie der PageRank-Algorithmus von Google und die ODP-Klassifikation beschrieben. Das Buch richtet sich an Studierende und Praktiker, die sich die Grundlagen des modernen Information Retrieval aneignen wollen.
    Footnote
    Rez. in nfd - Information 54(2003) H.6, S.380-381 (M. Hauer): "Wer unter Amazon.de nach aktueller Fachliteratur zum Thema Information Retrieval sucht, kommt mit gutem Grund auf Reginald Ferber. Er kommt von der mathematischen Modellierung zum Information Retrieval und hat im Rahmen seiner Forschung und Lehre das Feld breit ausgeleuchtet. Sein Buch bezeichnet sich als Einführungswerk für Informatiker, Informationswissenschaftler, Bibliothekare, Dokumentare und Studierende. Gewiss, es ist ein Einführungswerk, weil es darum bemüht ist, das Feld komplett auszuleuchten. Vergleicht man dieses gegen die rund 38o Titel zum Feld Information Retrieval aus dem Springer Verlag dem großen Nachbarn in Heidelberg, so trifft diese Einschätzung zu, denn dort werden primär einzelne Ansätze beleuchtet. Sehr systematisch erarbeitet Ferber die grundlegenden Modelle und Methoden des Information Retrieval, Data Mining und deren Umfeld. Dennoch ist es in weiten Teilen ohne einige Semester Mathematik und ohne gute Informatik-Grundlagen nicht verständlich. Ferber überzeugt schon im ersten von vier Kapiteln über "Grundlagen und klassische IR-Methoden" mit einer guten Kenntnis der Retrieval-Praxis und Problematik. Einführend grenzt er Fakten- und Information Retrieval, Hypertext, Expertensysteme, Management-Informationssysteme, Data Mining, Kategorisierung, assoziative Regeln und Wissensgewinnung ab. Im Kapitel Grundlagen definiert er Information Retrieval letztlich in Übereinstimmung mit der Gesellschaft für Informatik, die eine Fachgruppe dazu unterhält. Vagheit, Unschärfe und Unsicherheit prägen letztlich die Aufgabe des Information Retrieval als eine Gruppe von Verfahren mit dem Ziel des Austauschs von Wissen zwischen Menschen. Im Dialog zwischen Informatik und Kognitionswissenschaften sieht er noch viele offene Fragen. Einfach gesagt: Wenn jemand bei Google ein Suchwort eintippt, woher soll der Rechner dann wissen, welche Antwort für diesen Menschen in dieser Situation gerade die beste ist? Auf rund 70 Seiten erarbeitet er alle wesentlichen Retrieval-Ansätze bis zum Vektorraum-Modell und TREC, dem jährlichen wissenschaftlichen Wettkampf der Systeme. Es geht um boolesche Techniken und ihre Schwächen, um Klassifikationsund Thesauruskonzepte, linguistische Verfahren, Gewichtungsverfahren, Relevance Feedback, Vektorraum und die Messverfahren für Retrievalqualität. Auf den nächsten 70 Seiten führt er die Grundlagen der statistischen Verfahren ein, die heute als Data-Mining oder TextMining bezeichnet werden. Hier geht es um maschinelles Lernen, Kategorisierung, Clustering und assoziative Regeln. Spätestens hier wird der gewöhnliche Dokumentar oder Bibliothekar stöhnen was nicht gegen das Buch spricht, nur gegen deren traditionelle Ausbildung. Deutlich wird dabei, dass mit mathematischen Verfahren die klassischen Verfahren im Ergebnis erreicht werden sollen: Kategorisierung (wenige Hauptschlagworte), Clustering (Klassen) oder eben thesaurusähnliche Termpaarbildungen. Das Ziel ist weitgehend gleich doch die Zielerreichung grundlegend verschieden. Genau diese mathematischen Verfahren werden im dritten Kapitel weiter vertieft. Insbesondere die korpusbasierten Verfahren sind hier wichtig, wie kann man in einer ganzen großen Menge sinnvolle Termpaare oder gar Termnetze finden, also Kookurrenzen, Begriffe, die signifikant häufig gemeinsam vorkommen. Solche Verfahren sind auch im multilingualen Retrieval interessant, um automatisch sinnvolle Übersetzungen zu finden, indem Texte, die in mehreren Sprachen vorliegen jeweils auf Paare untersucht werden. Solche Netze können teils mit Lehrer trainiert, nachträglich korrigiert oder ohne Aufsicht entstehen. Ferber zeigt sachlich neutral die Verfahren auf, eine klare Entscheidung des Autors für das eine oder andere Verfahren ist nicht zu erkennen. Diese Position ist durch die TRECErgebnisse begründet, denn bislang konnte sich noch keines der Verfahren weit vom Durchschnitt entfernen. Und stets hängt die Eignung auch stark am Textkorpus und Einsatzzweck.
    Das vierte Kapitel widmet sich Information Retrieval aus der Perspektive des Internets. Bei aller raffinierten Retrieval Technik mit Linguistik oder Statistik spielt Faktenretrieval aufgrund von strukturierten Dokumenten unverändert und eher zunehmend eine Rolle. Er führt zunächst in SGML und XML ein, Sprachen zur Markierung von Dokumentinhalten. Anwendungen davon sind Metadaten-Ansätze wie Dublin Core oder RDF. Aufgrund seiner langen Erfahrung zweifelt er aber an der flächendeckenden Durchsetzung solcher Strukturierungsansätze, was deren Nutzen aber prinzipiell nicht schmälert. Ein Unterkapitel Topic Maps wäre noch sinnvoll gewesen. Dieses Kapitel ist sinnvoll, um ein besseres Verständnis all der herumschwirrenden Namen und Ansätze zu erhalten, die alle wieder einmal an alten Problemen arbeiten. Denkbar wäre noch ein Kapitel zum Bild-, Musik- oder Video-Retrieval (also Objekte ohne Text) gewesen, doch mit über 300 Seiten ist das Buch schon dick genug. Das Buch erfüllt für die Zielgruppen das Ziel der Einführung gut und vermittelt ein umfassendes Verständnis - doch angesichts von so viel Mathematik bleibt ein klarer Rest von Vagheit, Unschärfe und Unsicherheit wohl bei den meisten Lesern. Nur wer selbst solche Systeme baut, wird die Algorithmen implementieren und auf seine Weise diskutieren können.

Languages

  • e 15
  • m 2

Types

  • s 128
  • i 18
  • el 12
  • x 9
  • b 1
  • n 1
  • r 1
  • More… Less…

Themes

Subjects

Classifications