Search (6584 results, page 1 of 330)

  • × year_i:[2000 TO 2010}
  1. Gödert, W.; Hubrich, J.; Boteram, F.: Thematische Recherche und Interoperabilität : Wege zur Optimierung des Zugriffs auf heterogen erschlossene Dokumente (2009) 0.11
    0.111814834 = product of:
      0.27953708 = sum of:
        0.015457011 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.015457011 = score(doc=193,freq=16.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34630734 = fieldWeight in 193, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.124959 = score(doc=193,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.03123975 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.124959 = score(doc=193,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.25 = coord(1/4)
        0.03123975 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.124959 = score(doc=193,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.25 = coord(1/4)
        0.009614649 = weight(_text_:der in 193) [ClassicSimilarity], result of:
          0.009614649 = score(doc=193,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.21373394 = fieldWeight in 193, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=193)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.124959 = score(doc=193,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 193) [ClassicSimilarity], result of:
              0.124959 = score(doc=193,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.5 = coord(1/2)
        0.0045474293 = product of:
          0.013642288 = sum of:
            0.013642288 = weight(_text_:22 in 193) [ClassicSimilarity], result of:
              0.013642288 = score(doc=193,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.19345059 = fieldWeight in 193, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=193)
          0.33333334 = coord(1/3)
      0.4 = coord(8/20)
    
    Abstract
    Die Verwendung von Erschließungsinstrumenten zur Beschreibung von Informationsressourcen kann Effizienz und Effektivität thematischer Recherchen wesentlich steigern: standardisierte Begriffe unterstützen Recall und Precision begrifflicher Suchen; Ausweisung von Relationen bietet die Grundlage für explorative Suchprozesse. Eine zusätzliche Steigerung der Funktionalitäten des Retrievals kann mittels einer Ausdifferenzierung und Spezifizierung der in Normdaten enthaltenen semantischen Informationen erreicht werden, die über die in Thesauri und Klassifikationen verbreiteten grundlegenden Relationstypen (äquivalent, hierarchisch, assoziativ) hinausgehen. In modernen Informationsräumen, in denen Daten verschiedener Institutionen über eine Plattform zeit- und ortsunabhängig zugänglich gemacht werden, können einzelne Wissenssysteme indes nur unzureichend das Information Retrieval unterstützen. Zu unterschiedlich sind die für thematische Suchanfragen relevanten Indexierungsdaten. Eine Verbesserung kann mittels Herstellung von Interoperabilität zwischen den verschiedenen Dokumentationssprachen erreicht werden. Im Vortrag wird dargelegt, in welcher Art und Weise die in Wissenssystemen enthaltenen semantischen Informationen zur Unterstützung thematischer Recherchen optimiert werden können und inwiefern Interoperabilität zwischen Systemen geschaffen werden kann, die gleichwertige Funktionalitäten in heterogenen Informationsräumen gewährleisten. In diesem Zusammenhang wird auch auf aktuelle Mappingprojekte wie das DFG-Projekt CrissCross oder das RESEDA-Projekt, welches sich mit den Möglichkeiten der semantischen Anreicherung bestehender Dokumentationssprachen befasst, eingegangen.
    Source
    https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/searchtype/authorsearch/author/%22Hubrich%2C+Jessica%22/docId/703/start/0/rows/20
  2. Handbuch der Künstlichen Intelligenz (2003) 0.10
    0.10089904 = product of:
      0.2522476 = sum of:
        0.09788797 = weight(_text_:monographien in 2916) [ClassicSimilarity], result of:
          0.09788797 = score(doc=2916,freq=4.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            0.72914284 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.02451223 = weight(_text_:software in 2916) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2916,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.021639816 = weight(_text_:und in 2916) [ClassicSimilarity], result of:
          0.021639816 = score(doc=2916,freq=16.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.4848303 = fieldWeight in 2916, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.02451223 = weight(_text_:software in 2916) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2916,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.041826285 = weight(_text_:methoden in 2916) [ClassicSimilarity], result of:
          0.041826285 = score(doc=2916,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.40078837 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.0109904595 = weight(_text_:der in 2916) [ClassicSimilarity], result of:
          0.0109904595 = score(doc=2916,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.24431825 = fieldWeight in 2916, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.02451223 = weight(_text_:software in 2916) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2916,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2916)
        0.006366401 = product of:
          0.019099202 = sum of:
            0.019099202 = weight(_text_:22 in 2916) [ClassicSimilarity], result of:
              0.019099202 = score(doc=2916,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.2708308 = fieldWeight in 2916, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2916)
          0.33333334 = coord(1/3)
      0.4 = coord(8/20)
    
    Abstract
    Das Handbuch der Künstlichen Intelligenz bietet die umfassendste deutschsprachige Übersicht über die Disziplin "Künstliche Intelligenz". Es vereinigt einführende und weiterführende Beiträge u.a. zu folgenden Themen: - Kognition - Neuronale Netze - Suche, Constraints - Wissensrepräsentation - Logik und automatisches Beweisen - Unsicheres und vages Wissen - Wissen über Raum und Zeit - Fallbasiertes Schließen und modellbasierte Systeme - Planen - Maschinelles Lernen und Data Mining - Sprachverarbeitung - Bildverstehen - Robotik - Software-Agenten Das Handbuch bietet eine moderne Einführung in die Künstliche Intelligenz und zugleich einen aktuellen Überblick über Theorien, Methoden und Anwendungen.
    Classification
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
    Date
    21. 3.2008 19:10:22
    RVK
    ST 300 Informatik / Monographien / Künstliche Intelligenz / Allgemeines
  3. Lindig, C.; Snelting, G.: Formale Begriffsnalyse im Software Engineering (2000) 0.09
    0.08729493 = product of:
      0.29098308 = sum of:
        0.04902446 = weight(_text_:software in 4199) [ClassicSimilarity], result of:
          0.04902446 = score(doc=4199,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.61363745 = fieldWeight in 4199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.109375 = fieldNorm(doc=4199)
        0.015301661 = weight(_text_:und in 4199) [ClassicSimilarity], result of:
          0.015301661 = score(doc=4199,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34282678 = fieldWeight in 4199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4199)
        0.04902446 = weight(_text_:software in 4199) [ClassicSimilarity], result of:
          0.04902446 = score(doc=4199,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.61363745 = fieldWeight in 4199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.109375 = fieldNorm(doc=4199)
        0.08365257 = weight(_text_:methoden in 4199) [ClassicSimilarity], result of:
          0.08365257 = score(doc=4199,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.80157673 = fieldWeight in 4199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.109375 = fieldNorm(doc=4199)
        0.04902446 = weight(_text_:software in 4199) [ClassicSimilarity], result of:
          0.04902446 = score(doc=4199,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.61363745 = fieldWeight in 4199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.109375 = fieldNorm(doc=4199)
        0.044955477 = product of:
          0.089910954 = sum of:
            0.089910954 = weight(_text_:engineering in 4199) [ClassicSimilarity], result of:
              0.089910954 = score(doc=4199,freq=2.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.83102053 = fieldWeight in 4199, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4199)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Source
    Begriffliche Wissensverarbeitung: Methoden und Anwendungen, mit Beiträgen zahlreicher Fachwissenschaftler. Hrsg.: G. Stumme u. R. Wille
  4. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (2001) 0.09
    0.08616416 = product of:
      0.34465665 = sum of:
        0.14096381 = weight(_text_:230 in 6488) [ClassicSimilarity], result of:
          0.14096381 = score(doc=6488,freq=2.0), product of:
            0.13547163 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.02013827 = queryNorm
            1.0405412 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
        0.04001342 = weight(_text_:23 in 6488) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6488,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
        0.04001342 = weight(_text_:23 in 6488) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6488,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
        0.04001342 = weight(_text_:23 in 6488) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6488,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
        0.08365257 = weight(_text_:methoden in 6488) [ClassicSimilarity], result of:
          0.08365257 = score(doc=6488,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.80157673 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
      0.25 = coord(5/20)
    
    Date
    21. 8.2001 21:23:34
    Pages
    230 S
  5. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 0.08
    0.082971625 = product of:
      0.27657208 = sum of:
        0.026654093 = product of:
          0.079962276 = sum of:
            0.079962276 = weight(_text_:3a in 692) [ClassicSimilarity], result of:
              0.079962276 = score(doc=692,freq=2.0), product of:
                0.17073247 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.02013827 = queryNorm
                0.46834838 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.33333334 = coord(1/3)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.124959 = score(doc=692,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.03123975 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.124959 = score(doc=692,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.25 = coord(1/4)
        0.03123975 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.124959 = score(doc=692,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.25 = coord(1/4)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.124959 = score(doc=692,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
        0.0624795 = product of:
          0.124959 = sum of:
            0.124959 = weight(_text_:2c in 692) [ClassicSimilarity], result of:
              0.124959 = score(doc=692,freq=2.0), product of:
                0.21343093 = queryWeight, product of:
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5854775 = fieldWeight in 692, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  10.598275 = idf(docFreq=2, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=692)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Content
    Vgl.: https://www.semanticscholar.org/paper/Piaget-%E2%80%99-s-Constructivism-%2C-Papert-%E2%80%99-s-%3A-What-%E2%80%99-s-Ackermann/89cbcc1e740a4591443ff4765a6ae8df0fdf5554. Darunter weitere Hinweise auf verwandte Beiträge. Auch unter: Learning Group Publication 5(2001) no.3, S.438.
  6. Memmel, T.: User interface specification for interactive software systems : process-, method- and tool-support for interdisciplinary and collaborative requirements modelling and prototyping-driven user interface specification (2009) 0.08
    0.08269319 = product of:
      0.20673297 = sum of:
        0.036391225 = weight(_text_:software in 4093) [ClassicSimilarity], result of:
          0.036391225 = score(doc=4093,freq=6.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.4555077 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.014663808 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.014663808 = score(doc=4093,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.328536 = fieldWeight in 4093, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.036391225 = weight(_text_:software in 4093) [ClassicSimilarity], result of:
          0.036391225 = score(doc=4093,freq=6.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.4555077 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.035851102 = weight(_text_:methoden in 4093) [ClassicSimilarity], result of:
          0.035851102 = score(doc=4093,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.3435329 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.011537581 = weight(_text_:der in 4093) [ClassicSimilarity], result of:
          0.011537581 = score(doc=4093,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.25648075 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.008259674 = product of:
          0.016519347 = sum of:
            0.016519347 = weight(_text_:29 in 4093) [ClassicSimilarity], result of:
              0.016519347 = score(doc=4093,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.23319192 = fieldWeight in 4093, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
        0.036391225 = weight(_text_:software in 4093) [ClassicSimilarity], result of:
          0.036391225 = score(doc=4093,freq=6.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.4555077 = fieldWeight in 4093, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=4093)
        0.027247135 = product of:
          0.05449427 = sum of:
            0.05449427 = weight(_text_:engineering in 4093) [ClassicSimilarity], result of:
              0.05449427 = score(doc=4093,freq=4.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.5036745 = fieldWeight in 4093, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
      0.4 = coord(8/20)
    
    Abstract
    User-Interface-Spezifikationsprozesse involvieren unterschiedliche Akteure mit jeweils eigenen Ausdrucksmitteln. Dadurch ergeben sich Herausforderungen bei der Umsetzung von Anforderungen in gutes UI-Design. Durch einen Mangel an interdisziplinären und kollaborativen Methoden und Werkzeugen dominieren dabei vor allem textbasierte Spezifikationsdokumente. Diese reichen jedoch mangels Interaktivität nicht aus, um innovative und kreative Prozesse zu unterstützen. In diesem Buch wird eine Spezifikationstechnik vorgestellt, mit der Benutzer-, Aufgaben- und Interaktionsmodelle mit unterschiedlich detailliertem UI-Design verbunden werden. Dadurch entsteht eine erlebbare UI-Simulation, die im Vergleich zu interaktiven UI-Prototypen zusätzlich den visuellen Drill-Down zu Artefakten der Anforderungsermittlung erlaubt. Das Resultat sind interaktive UI-Spezifikationen, mit denen eine höhere Transparenz und Nachvollziehbarkeit im Spezifikationsprozess möglich sind.
    BK
    54.52 / Software engineering
    Classification
    54.52 / Software engineering
    Date
    15. 7.2011 18:13:29
  7. Innovations and advanced techniques in systems, computing sciences and software engineering (2008) 0.08
    0.07983807 = product of:
      0.31935227 = sum of:
        0.07119748 = weight(_text_:230 in 4319) [ClassicSimilarity], result of:
          0.07119748 = score(doc=4319,freq=4.0), product of:
            0.13547163 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.02013827 = queryNorm
            0.5255527 = fieldWeight in 4319, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4319)
        0.060652044 = weight(_text_:software in 4319) [ClassicSimilarity], result of:
          0.060652044 = score(doc=4319,freq=24.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.75917953 = fieldWeight in 4319, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4319)
        0.060652044 = weight(_text_:software in 4319) [ClassicSimilarity], result of:
          0.060652044 = score(doc=4319,freq=24.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.75917953 = fieldWeight in 4319, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4319)
        0.060652044 = weight(_text_:software in 4319) [ClassicSimilarity], result of:
          0.060652044 = score(doc=4319,freq=24.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.75917953 = fieldWeight in 4319, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4319)
        0.06619864 = product of:
          0.13239728 = sum of:
            0.13239728 = weight(_text_:engineering in 4319) [ClassicSimilarity], result of:
              0.13239728 = score(doc=4319,freq=34.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                1.2237091 = fieldWeight in 4319, product of:
                  5.8309517 = tf(freq=34.0), with freq of:
                    34.0 = termFreq=34.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4319)
          0.5 = coord(1/2)
      0.25 = coord(5/20)
    
    Abstract
    Innovations and Advanced Techniques in Systems, Computing Sciences and Software Engineering includes a set of rigorously reviewed world-class manuscripts addressing and detailing state-of-the-art research projects in the areas of Computer Science, Software Engineering, Computer Engineering, and Systems Engineering and Sciences. Innovations and Advanced Techniques in Systems, Computing Sciences and Software Engineering includes selected papers form the conference proceedings of the International Conference on Systems, Computing Sciences and Software Engineering (SCSS 2007) which was part of the International Joint Conferences on Computer, Information and Systems Sciences and Engineering (CISSE 2007).
    Classification
    ST 230
    Content
    Inhalt: Image and Pattern Recognition: Compression, Image processing, Signal Processing Architectures, Signal Processing for Communication, Signal Processing Implementation, Speech Compression, and Video Coding Architectures. Languages and Systems: Algorithms, Databases, Embedded Systems and Applications, File Systems and I/O, Geographical Information Systems, Kernel and OS Structures, Knowledge Based Systems, Modeling and Simulation, Object Based Software Engineering, Programming Languages, and Programming Models and tools. Parallel Processing: Distributed Scheduling, Multiprocessing, Real-time Systems, Simulation Modeling and Development, and Web Applications. New trends in computing: Computers for People of Special Needs, Fuzzy Inference, Human Computer Interaction, Incremental Learning, Internet-based Computing Models, Machine Intelligence, Natural Language Processing, Neural Networks, and Online Decision Support System
    LCSH
    Communications Engineering, Networks
    Software Engineering/Programming and Operating Systems
    Software engineering
    RSWK
    Computerarchitektur / Software Engineering / Telekommunikation / Online-Publikation
    RVK
    ST 230
    Subject
    Computerarchitektur / Software Engineering / Telekommunikation / Online-Publikation
    Communications Engineering, Networks
    Software Engineering/Programming and Operating Systems
    Software engineering
  8. Albers, C.: Zeitungen in Bibliotheken : Aufsätze, Monographien und Rezensionen aus dem Jahr 2004. Mit Nachträgen für die Jahre 1980-2003 (2005) 0.07
    0.06998846 = product of:
      0.17497115 = sum of:
        0.02000671 = weight(_text_:23 in 1759) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1759,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.06921725 = weight(_text_:monographien in 1759) [ClassicSimilarity], result of:
          0.06921725 = score(doc=1759,freq=2.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            0.51558185 = fieldWeight in 1759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.02000671 = weight(_text_:23 in 1759) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1759,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.01874063 = weight(_text_:und in 1759) [ClassicSimilarity], result of:
          0.01874063 = score(doc=1759,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41987535 = fieldWeight in 1759, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.02000671 = weight(_text_:23 in 1759) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1759,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1759, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.0109904595 = weight(_text_:der in 1759) [ClassicSimilarity], result of:
          0.0109904595 = score(doc=1759,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.24431825 = fieldWeight in 1759, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1759)
        0.009636286 = product of:
          0.019272571 = sum of:
            0.019272571 = weight(_text_:29 in 1759) [ClassicSimilarity], result of:
              0.019272571 = score(doc=1759,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.27205724 = fieldWeight in 1759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1759)
          0.5 = coord(1/2)
        0.006366401 = product of:
          0.019099202 = sum of:
            0.019099202 = weight(_text_:22 in 1759) [ClassicSimilarity], result of:
              0.019099202 = score(doc=1759,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.2708308 = fieldWeight in 1759, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1759)
          0.33333334 = coord(1/3)
      0.4 = coord(8/20)
    
    Abstract
    Die von Wilbert Ubbens und Dr. Willi Höfig im Jahr 1982 begründete und bis zum Jahr 2002 jeweils in Heft 3 dieser Zeitschrift veröffentlichte Bibliographie wird mit der vorliegenden Übersicht fortgesetzt. Die Gliederung nach Schlagwörtern und die Zitierweise wurden weitgehend beibehalten, um sowohl die Orientierung zu erleichtern als auch spätere Hinweise auf diese Bibliographie zu vereinfachen. Wo nötig, wurden wieder erläuternde Hinweise in englischer Sprache hinzugefügt. Für diese Übersicht wurden auch Nachweise aus den verwandten Bereichen der Archive, Dokumentationsstellen und Museen aufgenommen, um die für Zeitungen wünschenswerte spartenübergreifende Zusammenarbeit zu fördern.
    Date
    22. 3.2008 13:23:55
    Source
    Bibliothek: Forschung und Praxis. 29(2005) H.3, S.382-385
  9. Weiss, B.: Metadaten für Online-Monographien und Online-Zeitschriften (2001) 0.07
    0.0684441 = product of:
      0.2737764 = sum of:
        0.04001342 = weight(_text_:23 in 6491) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6491,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
        0.1384345 = weight(_text_:monographien in 6491) [ClassicSimilarity], result of:
          0.1384345 = score(doc=6491,freq=2.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            1.0311637 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
        0.04001342 = weight(_text_:23 in 6491) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6491,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
        0.015301661 = weight(_text_:und in 6491) [ClassicSimilarity], result of:
          0.015301661 = score(doc=6491,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34282678 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
        0.04001342 = weight(_text_:23 in 6491) [ClassicSimilarity], result of:
          0.04001342 = score(doc=6491,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.55438095 = fieldWeight in 6491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.109375 = fieldNorm(doc=6491)
      0.25 = coord(5/20)
    
    Date
    27. 8.2001 8:43:23
  10. Christ, O.: Content-Management in der Praxis : Erfolgreicher Aufbau und Betrieb unternehmensweiter Portale (2003) 0.07
    0.067136124 = product of:
      0.1678403 = sum of:
        0.02000671 = weight(_text_:23 in 3447) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3447,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.02000671 = weight(_text_:23 in 3447) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3447,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.02451223 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
          0.02451223 = score(doc=3447,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.01874063 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.01874063 = score(doc=3447,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41987535 = fieldWeight in 3447, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.02000671 = weight(_text_:23 in 3447) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3447,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.02451223 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
          0.02451223 = score(doc=3447,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.015542857 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.015542857 = score(doc=3447,freq=8.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34551817 = fieldWeight in 3447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
        0.02451223 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
          0.02451223 = score(doc=3447,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3447)
      0.4 = coord(8/20)
    
    Abstract
    Content-Management in der Praxis beschreibt anhand von illustrativen Fallbeispielen Lösungskonzepte für den erfolgreichen Aufbau und Betrieb unternehmensweiter Portale. Mit klarem Blick für die betriebliche Realität entwickelt der Autor ein integriertes Modell für das Content-Management, auf dessen Basis die einzelnen Fragestellungen der Arbeit analysiert und strukturiert werden. Neben strategischen Elementen beschreibt das Buch eine integrierte Architektur für das Content-Management multikanalfähiger Portale, die Prozessmodelle und darauf ausgerichtete Software-Funktionen des Content-Management enthält. Das Buch zeigt Unternehmen Wege auf, um aus unterschiedlichen Ausgangssituationen heraus ein effizientes und am betrieblichen Nutzen ausgerichtetes Content-Management zu erzielen. Die Darstellung auch komplexer Themenstellungen in klarer und allgemeinverständlicher Sprache erleichtert dem Leser den Einstieg in die teilweise unübersichtliche Materie.
    Date
    23. 5.2005 12:41:10
  11. Thiel, M.: Bedingt wahrscheinliche Syntaxbäume (2006) 0.06
    0.064822845 = product of:
      0.14405078 = sum of:
        0.0114324065 = weight(_text_:23 in 6069) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=6069,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.0114324065 = weight(_text_:23 in 6069) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=6069,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.014006989 = weight(_text_:software in 6069) [ClassicSimilarity], result of:
          0.014006989 = score(doc=6069,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.018548414 = weight(_text_:und in 6069) [ClassicSimilarity], result of:
          0.018548414 = score(doc=6069,freq=36.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41556883 = fieldWeight in 6069, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.0114324065 = weight(_text_:23 in 6069) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=6069,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.014006989 = weight(_text_:software in 6069) [ClassicSimilarity], result of:
          0.014006989 = score(doc=6069,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.033800744 = weight(_text_:methoden in 6069) [ClassicSimilarity], result of:
          0.033800744 = score(doc=6069,freq=4.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.32388592 = fieldWeight in 6069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.015383439 = weight(_text_:der in 6069) [ClassicSimilarity], result of:
          0.015383439 = score(doc=6069,freq=24.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34197432 = fieldWeight in 6069, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
        0.014006989 = weight(_text_:software in 6069) [ClassicSimilarity], result of:
          0.014006989 = score(doc=6069,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 6069, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=6069)
      0.45 = coord(9/20)
    
    Abstract
    Es wird argumentiert, dass die Ansätze der probabilistischen kontextfreien Grammatiken und anderer Modelle nicht ausreichend sind für die Lösung der im Parsing auftretenden Probleme. Zu deren Lösung wird folgende Hypothese aufgestellt: Die Wahrscheinlichkeiten einzelner Lesarten und verschiedener Knoten in einem Syntaxbaum sind voneinander abhängig. Vereindeutigt man eine Lesart bzw. einen Knoten, hat dies Auswirkungen auf die Wahrscheinlichkeit anderer Lesarten bzw. Knoten. Daher werden alle Lesarten und Syntaxbäume in einen Graphen integriert. Wenn die Wahrscheinlichkeiten also voneinander abhängig sind, wird angenommen, dass die Theorie der bedingten Wahrscheinlichkeiten von Bayes als Basis eine Lösung produzieren sollte. An einem Beispiel wird dies nachvollzogen und die Hypothese konnte bestätigt werden.
    Die Tendenz ist eindeutig: wo immer es sinnvoll ist, werden hart' programmierte Lösungen durch Ansätze des Softcomputing ersetzt. Vor allem technische und kommerzielle Bereiche profitieren davon. So finden wir Kransteuerungen und viele andere Anwendungen mit Fuzzy Expertensystemen sowie Bilderkennungssysteme und Entscheidungen über die Kreditvergabe mit Neuronalen Netzen oder auch Methoden des Maschinellen Lernens (vgl. Jafar-Shaghaghi 1994). Ein Prinzip dieser Ansätze ist, dass die Software sich automatisch an die spezielle Situation und Datengrundlage der Anwendung anpasst. Flexibilität der Anpassung und die Fähigkeit zur Verallgemeinerung auf bislang ungesehene Fälle sind implizit in den Methoden vorhanden. Gerade dies ist auch ein typisches Problem, das bei der Beschreibung und vor allem beim Parsen natürlicher Sprache auftritt. Bei der Verarbeitung natürlicher Sprache kommt das leidige Problem der Ambiguität auf verschiedenen Ebenen hinzu. Alternative Regeln schließen sich in ihrer Anwendung in einem Satz meistens gegenseitig aus und sind nicht alle an der aktuellen Stelle gleich wahrscheinlich. Auf diese Problematik wurde schon früh hingewiesen (Thiel 1987, 137 ff.), wo versucht wurde, mit Gewichtungen die Wahrscheinlichkeit von Regeln, Syntaxbäumen, Kategorien und Wortsemantik in den Griff zu bekommen. Das Gewicht eines Syntaxbaumes kann z.B. einfach zugewiesen werden oder berechnet werden als Funktion des Baumes, aus dem er abgeleitet wird, und der angewandten Regel. Ein solches Verfahren wird (Thiel 1987, 152) am Beispiel einer Heuristik für die Inferenzmaschine eines Expertensystems gezeigt. Aber auch bereits in einer sehr frühen Veröffentlichung zur Analyse natürlicher Sprache, an der Zimmermann maßgeblich beteiligt war, wurde auf Vorkommenswahrscheinlichkeiten hingewiesen: "Statistische Auswertung von Typen des Satzbaus, Bau nominaler und verbaler Gruppen ..." (Eggers et al. 1969, 18). Derzeit konzentrieren sich die Ansätze von Vagheit in der Verarbeitung von natürlicher Sprache vor allem auf die Filterung von Texten z.B. in Spam-Filtern und auf probabilistische kontextfreie Grammatiken.
    Date
    13.10.2006 9:35:23
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  12. Münch, V.: "Wenn man mit dem Organisieren fertig ist, ist mehr neue Information da, als man bewältigen kann" (2009) 0.06
    0.06410759 = product of:
      0.16026896 = sum of:
        0.02000671 = weight(_text_:23 in 2655) [ClassicSimilarity], result of:
          0.02000671 = score(doc=2655,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.02000671 = weight(_text_:23 in 2655) [ClassicSimilarity], result of:
          0.02000671 = score(doc=2655,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.02451223 = weight(_text_:software in 2655) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2655,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.013251626 = weight(_text_:und in 2655) [ClassicSimilarity], result of:
          0.013251626 = score(doc=2655,freq=6.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.2968967 = fieldWeight in 2655, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.02000671 = weight(_text_:23 in 2655) [ClassicSimilarity], result of:
          0.02000671 = score(doc=2655,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.02451223 = weight(_text_:software in 2655) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2655,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.0134605095 = weight(_text_:der in 2655) [ClassicSimilarity], result of:
          0.0134605095 = score(doc=2655,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29922754 = fieldWeight in 2655, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
        0.02451223 = weight(_text_:software in 2655) [ClassicSimilarity], result of:
          0.02451223 = score(doc=2655,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 2655, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2655)
      0.4 = coord(8/20)
    
    Abstract
    Auf der Konferenzmesse Online Information 2008, 2. bis 4. Dezember, waren Prozessorganisation und internationale Vernetzung der Branchenteilnehmer erstmals wichtiger als technische Neuentwicklungen
    Content
    Bericht über die Themenfelder: Semantische Technologien und Social Web Organisieren ohne Organisationen Jedes Stück Information ist eine latente Community Semantische Tools als Sahnehäubchen für die Suche Google Beta 1: Benutzerdefinierte Suche Google Beta 2: Plattform zum Teilen von Wissen (Knol) Weitkämper's HitEngine: Das spannendste Produkt der Messe Web of Science speist Thomson Collexis Dashboards Elseviers Illumin8 - Technologiewissen aus allen Quellen gleichzeitig Deutsche Stunde thematisiert das Potential von PS I Europaweite Studie zum Sektor öffentliche Daten OCLC baut an einer weltweiten Bibliotheken-G enossenschaft OCLC plant SaaS-Software für Bibliotheken Goportis wird aktiv
    Date
    23. 3.2009 14:49:12
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.2, S.97-103
  13. Trkulja, V.: Weltgrößte Abstracts- und Zitationsdatenbank aus dem wissenschaftlichen Web (2005) 0.06
    0.063948795 = product of:
      0.18271086 = sum of:
        0.070481904 = weight(_text_:230 in 3437) [ClassicSimilarity], result of:
          0.070481904 = score(doc=3437,freq=2.0), product of:
            0.13547163 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.02013827 = queryNorm
            0.5202706 = fieldWeight in 3437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.02000671 = weight(_text_:23 in 3437) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3437,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.02000671 = weight(_text_:23 in 3437) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3437,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.01874063 = weight(_text_:und in 3437) [ClassicSimilarity], result of:
          0.01874063 = score(doc=3437,freq=12.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41987535 = fieldWeight in 3437, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.02000671 = weight(_text_:23 in 3437) [ClassicSimilarity], result of:
          0.02000671 = score(doc=3437,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 3437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.0109904595 = weight(_text_:der in 3437) [ClassicSimilarity], result of:
          0.0109904595 = score(doc=3437,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.24431825 = fieldWeight in 3437, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3437)
        0.022477739 = product of:
          0.044955477 = sum of:
            0.044955477 = weight(_text_:engineering in 3437) [ClassicSimilarity], result of:
              0.044955477 = score(doc=3437,freq=2.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.41551027 = fieldWeight in 3437, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3437)
          0.5 = coord(1/2)
      0.35 = coord(7/20)
    
    Abstract
    Scopus ist ein Such- und Navigationssystem für interdisziplinäre, wissenschaftliche Literatur. Die zur Zeit weltgrößte Abstract- & Zitationsdatenbank deckt 14.000 WTM-Titel von 4.000 Verlagen ab und liefert Ergebnisse aus dem wissenschaftlichen Web, inklusive Patentinformationen. Darüber hinaus unterstützt Scopus ein Volltext-Linking sowie eine erweiterte Bibliotheksintegration mit personalisierten Konfigurationsmöglichkeiten. Das neue Angebot ist überzeugend.
    Content
    Datenbestand Scopus beinhaltet - 12.650 akademische Zeitschriften (davon 1.100 Medline-Zeitschriften und 465 Open Access-Zeitschriften), - 750 Conference Proceedings, - 600 Trade Publications, - 27 Millionen Kurzfassungen der letzten zwanzig Jahre, - 230 Millionen Referenzen zu allen Kurzfassungen ab 1996 und - 180 Millionen wissenschaftliche Webseiten via Scirus. Der Inhalt wird täglich aktualisiert. Auf die Fachbereiche teilen sich die Quellen wie folgt auf: - 4.500 Chemistry, Physics, Mathematics and Engineering, - 5.900 Life and Health Sciences (100 Medline-Abdeckung), - 2.700 Social Sciences, Psychology and Economics und - 2.500 Biological, Agricultural and Environmental Sciences.
    Date
    23. 5.2005 11:38:28
  14. Haag, M.: Automatic text summarization : Evaluation des Copernic Summarizer und mögliche Einsatzfelder in der Fachinformation der DaimlerCrysler AG (2002) 0.06
    0.06347248 = product of:
      0.1586812 = sum of:
        0.017148608 = weight(_text_:23 in 649) [ClassicSimilarity], result of:
          0.017148608 = score(doc=649,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.23759183 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.017148608 = weight(_text_:23 in 649) [ClassicSimilarity], result of:
          0.017148608 = score(doc=649,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.23759183 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.029713312 = weight(_text_:software in 649) [ClassicSimilarity], result of:
          0.029713312 = score(doc=649,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.3719205 = fieldWeight in 649, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.0065578544 = weight(_text_:und in 649) [ClassicSimilarity], result of:
          0.0065578544 = score(doc=649,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.14692576 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.017148608 = weight(_text_:23 in 649) [ClassicSimilarity], result of:
          0.017148608 = score(doc=649,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.23759183 = fieldWeight in 649, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.029713312 = weight(_text_:software in 649) [ClassicSimilarity], result of:
          0.029713312 = score(doc=649,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.3719205 = fieldWeight in 649, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.011537581 = weight(_text_:der in 649) [ClassicSimilarity], result of:
          0.011537581 = score(doc=649,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.25648075 = fieldWeight in 649, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
        0.029713312 = weight(_text_:software in 649) [ClassicSimilarity], result of:
          0.029713312 = score(doc=649,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.3719205 = fieldWeight in 649, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=649)
      0.4 = coord(8/20)
    
    Abstract
    An evaluation of the Copernic Summarizer, a software for automatically summarizing text in various data formats, is being presented. It shall be assessed if and how the Copernic Summarizer can reasonably be used in the DaimlerChrysler Information Division in order to enhance the quality of its information services. First, an introduction into Automatic Text Summarization is given and the Copernic Summarizer is being presented. Various methods for evaluating Automatic Text Summarization systems and software ergonomics are presented. Two evaluation forms are developed with which the employees of the Information Division shall evaluate the quality and relevance of the extracted keywords and summaries as well as the software's usability. The quality and relevance assessment is done by comparing the original text to the summaries. Finally, a recommendation is given concerning the use of the Copernic Summarizer.
    Date
    27. 2.1999 16:23:24
    Footnote
    Diplomarbeit an der HBI Stuttgart. - Vgl. auch: nfd 53(2002) H.4, S.243-244
  15. pmz: Dr. Herbert Schlangemann - oder die Geschichte eines pseudowissenschaftlichen Nonsens-Papiers (2008) 0.06
    0.063357145 = product of:
      0.14079367 = sum of:
        0.014290508 = weight(_text_:23 in 2530) [ClassicSimilarity], result of:
          0.014290508 = score(doc=2530,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.1979932 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.014290508 = weight(_text_:23 in 2530) [ClassicSimilarity], result of:
          0.014290508 = score(doc=2530,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.1979932 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.017508736 = weight(_text_:software in 2530) [ClassicSimilarity], result of:
          0.017508736 = score(doc=2530,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.21915624 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.010929758 = weight(_text_:und in 2530) [ClassicSimilarity], result of:
          0.010929758 = score(doc=2530,freq=8.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.24487628 = fieldWeight in 2530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.014290508 = weight(_text_:23 in 2530) [ClassicSimilarity], result of:
          0.014290508 = score(doc=2530,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.1979932 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.017508736 = weight(_text_:software in 2530) [ClassicSimilarity], result of:
          0.017508736 = score(doc=2530,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.21915624 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.018410651 = weight(_text_:der in 2530) [ClassicSimilarity], result of:
          0.018410651 = score(doc=2530,freq=22.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.40926933 = fieldWeight in 2530, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.017508736 = weight(_text_:software in 2530) [ClassicSimilarity], result of:
          0.017508736 = score(doc=2530,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.21915624 = fieldWeight in 2530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2530)
        0.016055528 = product of:
          0.032111056 = sum of:
            0.032111056 = weight(_text_:engineering in 2530) [ClassicSimilarity], result of:
              0.032111056 = score(doc=2530,freq=2.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.29679304 = fieldWeight in 2530, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2530)
          0.5 = coord(1/2)
      0.45 = coord(9/20)
    
    Content
    ""Oft ist das Denken schwer, indes, das Schreiben geht auch ohne es", dichtete einst der deutsche Schriftsteller, Zeichner und Maler Wilhelm Busch. Ähnliche Gedanken müssen auch die Verfasser der Abhandlung "Towards the Simulation of E-Commerce" sowie die Veranstalter der "International Conference on Computer Science and Software Engineering 2008" (CSSE) gehabt haben. Denn die einen ließen der CSSE unter dem Pseudonym Dr. Herbert Schlangemann ein Arbeitspapier zukommen, das vorgibt, sich mit den jüngsten Erkenntnissen auf dem Gebiet der Informationstheorie auseinander zu setzen. Die anderen wiederum fanden das Arbeitspapier nach einer Überprüfung so gut, dass sie Dr. Schlangemann aufforderten, zusätzlich einen Lebenslauf zu schicken - anschließend wurde ihm die Leitung des Arbeitsstrangs "Distributed and Parallel Computing & Embedded Programming" bei der Konferenz Mitte Dezember im chinesischen Wuhan übertragen. Dumm nur, dass es Dr. Herbert Schlangemann von der schwedischen Umeå Universität gar nicht gibt und dass die Verantwortlichen der CSSE - eigenen Angaben zufolge immerhin eine der wichtigsten Veranstaltungen der IEEE Computer Society - nicht bemerkten, dass man ihnen da einen Bären aufgebunden hatte. Denn das Arbeitspapier "Towards the Simulation of E-Commerce" war nichts anderes als ein per SCIgen generiertes pseudowissenschaftliches Nonsens-Papier. Das Programm SCIgen ("An Automatic Computer Science Paper Generator") durchsucht online veröffentlichte Forschungsarbeiten nach bestimmten Stichworten und stellt daraus eine völlig neue Arbeit mit Grafiken, Tabellen und Quellenverweisen zusammen. Entwickelt worden war das Programm einst von Mitarbeitern des Massachusetts Institute of Technology (MIT), um wissenschaftliche Veranstaltungen mit sehr niedrigem Standard zu outen. Wilhelm Busch hätte dazu wohl gesagt: "Der klugen Leute Ungeschick, stimmt uns besonders heiter. Man fühlt doch für den Augenblick, sich auf einmal gescheiter"."
    Date
    28.12.2008 9:27:23
  16. Wille, J.: Automatisches Klassifizieren bibliographischer Beschreibungsdaten : Vorgehensweise und Ergebnisse (2006) 0.06
    0.06265196 = product of:
      0.1566299 = sum of:
        0.02000671 = weight(_text_:23 in 6090) [ClassicSimilarity], result of:
          0.02000671 = score(doc=6090,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.02000671 = weight(_text_:23 in 6090) [ClassicSimilarity], result of:
          0.02000671 = score(doc=6090,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.02451223 = weight(_text_:software in 6090) [ClassicSimilarity], result of:
          0.02451223 = score(doc=6090,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.015301661 = weight(_text_:und in 6090) [ClassicSimilarity], result of:
          0.015301661 = score(doc=6090,freq=8.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34282678 = fieldWeight in 6090, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.02000671 = weight(_text_:23 in 6090) [ClassicSimilarity], result of:
          0.02000671 = score(doc=6090,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.02451223 = weight(_text_:software in 6090) [ClassicSimilarity], result of:
          0.02451223 = score(doc=6090,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.0077714287 = weight(_text_:der in 6090) [ClassicSimilarity], result of:
          0.0077714287 = score(doc=6090,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.17275909 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
        0.02451223 = weight(_text_:software in 6090) [ClassicSimilarity], result of:
          0.02451223 = score(doc=6090,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.30681872 = fieldWeight in 6090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6090)
      0.4 = coord(8/20)
    
    Abstract
    Diese Arbeit befasst sich mit den praktischen Aspekten des Automatischen Klassifizierens bibliographischer Referenzdaten. Im Vordergrund steht die konkrete Vorgehensweise anhand des eigens zu diesem Zweck entwickelten Open Source-Programms COBRA "Classification Of Bibliographic Records, Automatic". Es werden die Rahmenbedingungen und Parameter f¨ur einen Einsatz im bibliothekarischen Umfeld geklärt. Schließlich erfolgt eine Auswertung von Klassifizierungsergebnissen am Beispiel sozialwissenschaftlicher Daten aus der Datenbank SOLIS.
    Content
    [Diplomarbeit Studiengang Bibliothekswesen Fakultät für Informations- und Kommunikationswissenschaften]
    Date
    10. 9.2006 19:23:31
    Footnote
    http://www.fbi.fh-koeln.de/institut/papers/abschlussarbeiten/abschlussarbeiten_ausgabe.php Vgl. auch: http://eprints.rclis.org/archive/00006659/01/wille_-_automatisches_klassifizieren_bibliographischer_beschreibungsdaten_(diplomarbeit).pdf. Für die Software vgl.: http://blackwinter.de/da/.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  17. Garfield, E.; Paris, S.W.; Stock, W.G.: HistCite(TM) : a software tool for informetric analysis of citation linkage (2006) 0.06
    0.06008364 = product of:
      0.17166755 = sum of:
        0.02000671 = weight(_text_:23 in 79) [ClassicSimilarity], result of:
          0.02000671 = score(doc=79,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 79, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.02000671 = weight(_text_:23 in 79) [ClassicSimilarity], result of:
          0.02000671 = score(doc=79,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 79, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.034665532 = weight(_text_:software in 79) [ClassicSimilarity], result of:
          0.034665532 = score(doc=79,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.43390724 = fieldWeight in 79, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.0076508303 = weight(_text_:und in 79) [ClassicSimilarity], result of:
          0.0076508303 = score(doc=79,freq=2.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.17141339 = fieldWeight in 79, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.02000671 = weight(_text_:23 in 79) [ClassicSimilarity], result of:
          0.02000671 = score(doc=79,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 79, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.034665532 = weight(_text_:software in 79) [ClassicSimilarity], result of:
          0.034665532 = score(doc=79,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.43390724 = fieldWeight in 79, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
        0.034665532 = weight(_text_:software in 79) [ClassicSimilarity], result of:
          0.034665532 = score(doc=79,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.43390724 = fieldWeight in 79, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0546875 = fieldNorm(doc=79)
      0.35 = coord(7/20)
    
    Abstract
    HistCite(TM) is a software tool for analyzing and visualizing direct citation linkages between scientific papers. Its inputs are bibliographic records (with cited references) from "Web of Knowledge" or other sources. Its outputs are various tables and graphs with informetric indicators about the knowledge domain under study. As an example we analyze informetrically the literature about Alexius Meinong, an Austrian philosopher and psychologist. The article shortly discusses the informetric functionality of "Web of Knowledge" and shows broadly the possibilities that HistCite offers to its users (e.g. scientists, scientometricans and science journalists).
    Date
    4.12.2006 12:09:23
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.391-400
  18. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.06
    0.059998613 = product of:
      0.14999653 = sum of:
        0.010003355 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.010003355 = score(doc=329,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.048943985 = weight(_text_:monographien in 329) [ClassicSimilarity], result of:
          0.048943985 = score(doc=329,freq=4.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            0.36457142 = fieldWeight in 329, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.010003355 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.010003355 = score(doc=329,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.019877441 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.019877441 = score(doc=329,freq=54.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.010003355 = weight(_text_:23 in 329) [ClassicSimilarity], result of:
          0.010003355 = score(doc=329,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.015202593 = product of:
          0.030405186 = sum of:
            0.030405186 = weight(_text_:allgemein in 329) [ClassicSimilarity], result of:
              0.030405186 = score(doc=329,freq=4.0), product of:
                0.10581345 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02013827 = queryNorm
                0.28734708 = fieldWeight in 329, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=329)
          0.5 = coord(1/2)
        0.020913143 = weight(_text_:methoden in 329) [ClassicSimilarity], result of:
          0.020913143 = score(doc=329,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.20039418 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.015049307 = weight(_text_:der in 329) [ClassicSimilarity], result of:
          0.015049307 = score(doc=329,freq=30.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.33454654 = fieldWeight in 329, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
      0.4 = coord(8/20)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Classification
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Date
    17. 9.2018 18:23:58
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
    RVK
    ST 205 Informatik / Monographien / Vernetzung, verteilte Systeme / Internet allgemein
  19. Voss, J.: LibraryThing : Web 2.0 für Literaturfreunde und Bibliotheken (2007) 0.06
    0.059648834 = product of:
      0.11929767 = sum of:
        0.007145254 = weight(_text_:23 in 1847) [ClassicSimilarity], result of:
          0.007145254 = score(doc=1847,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.0989966 = fieldWeight in 1847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.007145254 = weight(_text_:23 in 1847) [ClassicSimilarity], result of:
          0.007145254 = score(doc=1847,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.0989966 = fieldWeight in 1847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.019575363 = weight(_text_:software in 1847) [ClassicSimilarity], result of:
          0.019575363 = score(doc=1847,freq=10.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24502413 = fieldWeight in 1847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.01616533 = weight(_text_:und in 1847) [ClassicSimilarity], result of:
          0.01616533 = score(doc=1847,freq=70.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.3621769 = fieldWeight in 1847, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.007145254 = weight(_text_:23 in 1847) [ClassicSimilarity], result of:
          0.007145254 = score(doc=1847,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.0989966 = fieldWeight in 1847, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.019575363 = weight(_text_:software in 1847) [ClassicSimilarity], result of:
          0.019575363 = score(doc=1847,freq=10.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24502413 = fieldWeight in 1847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0076784696 = product of:
          0.015356939 = sum of:
            0.015356939 = weight(_text_:allgemein in 1847) [ClassicSimilarity], result of:
              0.015356939 = score(doc=1847,freq=2.0), product of:
                0.10581345 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02013827 = queryNorm
                0.1451322 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.5 = coord(1/2)
        0.013018297 = weight(_text_:der in 1847) [ClassicSimilarity], result of:
          0.013018297 = score(doc=1847,freq=44.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.28939712 = fieldWeight in 1847, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.019575363 = weight(_text_:software in 1847) [ClassicSimilarity], result of:
          0.019575363 = score(doc=1847,freq=10.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24502413 = fieldWeight in 1847, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1847)
        0.0022737146 = product of:
          0.006821144 = sum of:
            0.006821144 = weight(_text_:22 in 1847) [ClassicSimilarity], result of:
              0.006821144 = score(doc=1847,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.09672529 = fieldWeight in 1847, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1847)
          0.33333334 = coord(1/3)
      0.5 = coord(10/20)
    
    Abstract
    LibraryThing ist eine zur Klasse der Sozialen Software gehörende Webanwendung, in der Benutzer gemeinsam Bücher verwalten und miteinander in Kontakt treten können. Die Webseite wurde Ende August 2005 veröffentlicht und verzeichnet inzwischen (Juli 2007) über 235.000 Benutzer und 16 Millionen verschiedene Bücher. Jeder Nutzer verfügt über eine eigene Sammlung, die in LibraryThing als "Bibliotheken" oder "Katalog" bezeichnet wird. Die Katalogisierung geschieht in eine gemeinsame Datenbank, die von allen Nutzern direkt bearbeitet werden kann. Da es sich um eine reine Webanwendung handelt, muss zur Nutzung keine weitere Software installiert werden. Die Nutzung ist für bis zu 200 Medien kostenlos, eine jährliche Mitgliedschaft kostet 10 $ und eine lebenslange Mitgliedschaft 25 $. Bibliotheken und andere nichtkommerzielle Einrichtungen zahlen 15 $ pro Jahr. Dieses Preismodell hat sich auch nicht geändert, nachdem 40% des Unternehmens im Mai 2006 vom Gebrauchtbuchhändler AbeBooks übernommen wurden. Die Mehrheit hält weiterhin der Gründer Tim Spalding, der die ursprünglich als privates Projekt begonnene Seite mit inzwischen zwei weiteren Entwicklern und einer Bibliothekarin kontinuierlich weiterentwickelt.
    Content
    "Vom Nutzer zur Community Wie bei anderen Formen Sozialer Software beruht die Popularität von LibraryThing zu einem großen Teil auf den Interaktionsmöglichkeiten, durch die Nutzer miteinander in Kontakt treten und zusammenarbeiten. Neben einem allgemeinen Forum und Diskussionen zu konkreten Büchern, können sich Nutzer zu Gruppen zusammenschließen, beispielsweise die Comic-Liebhaber in der Gruppe Comics' und die deutschsprachigen LibraryThing-Nutzer in der Gruppe German Library Thingers. Per RSS können Nachrichten zu neuen Teilnehmern, Gruppen und Büchern aus Sammlungen von Gruppenmitgliedern abonniert werden. Jeder Benutzer verfügt über eine Profilseite, auf der er sich anderen Nutzern vorstellen kann und wo diese ihm Nachrichten hinterlassen können. Zu den Einträgen einzelner Nutzer, Werke, Bücher und Autoren wird jeweils angezeigt, welche Nutzer über die gleichen Bücher in ihrer Sammlung verfügen - so bringt LibraryThing Menschen zusammen, die sich für die gleichen Bücher interessieren. Jeder Nutzer kann zudem Bücher auf einer Skala von null bis fünf Sternen bewerten und Rezensionen einstellen. Erschließung leichtgemacht Nutzer können in LibraryThing bereits vorhandene Bücher mit einem Klick in ihre eigene Sammlung aufnehmen oder wieder entfernen. Das so kopierte Katalogisat können sie dann beliebig bearbeiten. Die Bearbeitung erfolgt nach dem Wiki-Prinzip direkt im Webbrowser. Bei der Anzeige einzelner Bücher und Werke werden die verschiedenen Metadaten dann zusammengefasst angezeigt. Andere Inhalte, wie die Autorenseiten (vergleichbar mit Personen-Normdatensätzen), können von allen Nutzern verändert werden. Eine wesentliche Rolle bei der Erschließung spielen freie Schlagwörter (Tags), aber auch DDC-Nummern lassen sich eintragen und werden beim Import aus Bibliothekskatalogen übernommen. Mit knapp 15 Feldern (Tags, Rezension, Bewertung, Titel, Autor, Weitere Autoren, Datum, ISBN, LoC-Signatur, DDC-Nummern, bibliographische Daten, Zusammenfassung, Kommentar und bis zu drei Sprachen) ist die Erschließung noch überschaubar und wird vor allem den Bedürfnissen der Nutzer gerecht.
    Zusammenarbeit mit Bibliotheken Bereits früh setzte sich Tim Spalding für eine Zusammenarbeit mit Bibliotheken ein. Zum Eintragen von neuen Büchern in LibraryThing können zahlreiche Bibliothekskataloge ausgewählt werden, die via Z39.50 eingebunden werden - seit Oktober 2006 ist auch der GBV dabei. Im April 2007 veröffentlichte Tim Spalding mit LibraryThing for Libraries ein Reihe von Webservices, die Bibliotheken in ihre OPACs einbinden können.4 Ein Webservice ist eine Funktion, die von anderen Programmen über das Web aufgerufen werden kann und Daten zurückliefert. Bereits seit Juni 2006 können über verschiedene offene LibraryThing-Webservices unter Anderem zu einer gegebenen ISBN die Sprache und eine Liste von ISBNs anderer Auflagen und Übersetzungen ermittelt werden, die zum gleichen Werk gehören (thinglSBN). Damit setzt LibraryThing praktisch einen Teil der Functional Requirements for Bibliographic Records (FRBR) um, die in bibliothekswissenschaftlichen Fachkreisen bereits seit Anfang der 1990er diskutiert werden, aber bislang nicht so Recht ihre Umsetzung in Katalogen gefunden haben. Die Information darüber, welche Bücher zum gleichen Werk gehören, wird von der LibraryThing-Community bereitgestellt; jeder Benutzer kann einzelne Ausgaben mit einem Klick zusammenführen oder wieder trennen. Vergleiche mit dem ähnlichen Dienst xISBN von OCLC zeigen, dass sich thinglSBN und xISBN gut ergänzen, allerdings bietet LibraryThing seinen Webservice im Gegensatz zu OCLC kostenlos an. Neben Empfehlungen von verwandten Büchern ist es im Rahmen von LibraryThing for Libraries auch möglich, die von den Nutzern vergebenen Tags in den eigenen Katalog einzubinden. Ein Nachteil dabei ist allerdings die bisherige Übermacht der englischen Sprache und dass nur selbständige Titel mit ISBN berücksichtigt werden. Die VZG prüft derzeit, in welcher Form LibraryThing for Libraries am besten in GBV-Bibliotheken umgesetzt werden kann. Es spricht allerdings für jede einzelne Bibliothek nichts dagegen, schon jetzt damit zu experimentieren, wie der eigene OPAC mit zusätzlichen Links und Tags von LibraryThing aussehen könnte. Darüber hinaus können sich auch Bibliotheken mit einem eigenen Zugang als Nutzer in LibraryThing beteiligen. So stellt beispielsweise die Stadtbücherei Nordenham bereits seit Ende 2005 ihre Neuzugänge im Erwachsenenbestand in einer Sammlung bei LibraryThing ein.
    Beispiel für die Anwendung von LibraryThing for Libraries im Katalog des Waterford Institute of Technology (): Zu einer ISBN werden auf Basis der in LibraryThing gesammelten Daten andere Auflagen und Übersetzungen, ähnliche Bücher und Tags eingeblendet. Soziale Software lebt vom Mitmachen Vieles spricht dafür, dass LibraryThing auf dem besten Weg ist, sich zu einem der wichtigsten Web 2.0-Dienste für die Zusammenarbeit mit Bibliotheken zu entwickeln. Wie schon bei Wikipedia gibt es allerdings noch viel zu oft Berührungsängste und die Vorstellung, dass sich diese Dienste erst durch Hilfe von Außen in der eigenen Einrichtung einführen ließen. Soziale Software lebt jedoch von der Zusammenarbeit und dem freien Austausch von Gedanken und Informationen. Deshalb hilft nur eins: Ausprobieren und Mitmachen. Ebenso wie Wikipedia schwer zu beurteilen ist, ohne selbst mit anderen Wikipedianern einen Artikel erstellt und diskutiert zu haben, erschließt sich LibraryThing erst vollständig durch eine eigene dort angelegte Büchersammlung. Zum Kennenlernen reicht der kostenlose Zugang und mit 15 $ Jahresgebühr können auch Bibliotheken problemlos bis zu 5.000 Medieneinheiten pro Sammlung einstellen. Wenn Sie erstmal mehr mit Library-Thing vertraut sind, werden Ihnen sicherlich weitere Einsatzmöglichkeiten für Ihre Einrichtung und deren Nutzer einfallen. LibraryThing entwickelt sich beständig weiter und dürfte noch für einige Überraschungen gut sein.
    Date
    22. 9.2007 10:36:23
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2007, H.137, S.12-13
    Theme
    Katalogfragen allgemein
  20. Bauer, F.L.: Entzifferte Geheimnisse : Methoden und Maximen der Kryptologie (2000) 0.06
    0.0596301 = product of:
      0.19876699 = sum of:
        0.03961775 = weight(_text_:software in 6752) [ClassicSimilarity], result of:
          0.03961775 = score(doc=6752,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.49589399 = fieldWeight in 6752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.019551745 = weight(_text_:und in 6752) [ClassicSimilarity], result of:
          0.019551745 = score(doc=6752,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.438048 = fieldWeight in 6752, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.03961775 = weight(_text_:software in 6752) [ClassicSimilarity], result of:
          0.03961775 = score(doc=6752,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.49589399 = fieldWeight in 6752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.04780147 = weight(_text_:methoden in 6752) [ClassicSimilarity], result of:
          0.04780147 = score(doc=6752,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.45804384 = fieldWeight in 6752, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.012560525 = weight(_text_:der in 6752) [ClassicSimilarity], result of:
          0.012560525 = score(doc=6752,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.27922085 = fieldWeight in 6752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
        0.03961775 = weight(_text_:software in 6752) [ClassicSimilarity], result of:
          0.03961775 = score(doc=6752,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.49589399 = fieldWeight in 6752, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=6752)
      0.3 = coord(6/20)
    
    Abstract
    Die Kryptologie gewinnt zusehends praktische Bedeutung in Verbindung mit dem Schutz von Kommunikationssystemen, Datenbanken und Software. Daneben treten mehr und mehr rechnerinterne Anwendungen wie Zugriffsberechtigungen und der Quellenschutz von Software. Das Buch behandelt die Geheimschriften und ihren Gebrauch, die Kryptographie, sowie das Vorgehen zum unbefugten Entziffern einer Geheimschrift, die Kryptanalyse, mit Hinweisen zur Verfahrenssicherheit

Languages

Types

  • a 5171
  • m 856
  • el 415
  • s 234
  • x 183
  • i 51
  • r 35
  • b 34
  • n 11
  • l 8
  • p 4
  • fi 1
  • More… Less…

Themes

Subjects

Classifications