Search (21 results, page 1 of 2)

  • × classification_ss:"06.74 Informationssysteme"
  1. Kammer, M.: Literarische Datenbanken : Anwendungen der Datenbanktechnologie in der Literaturwissenschaft (1996) 0.03
    0.030566905 = product of:
      0.15283452 = sum of:
        0.030914022 = weight(_text_:und in 1537) [ClassicSimilarity], result of:
          0.030914022 = score(doc=1537,freq=64.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.6926147 = fieldWeight in 1537, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1537)
        0.021717992 = product of:
          0.043435983 = sum of:
            0.043435983 = weight(_text_:allgemein in 1537) [ClassicSimilarity], result of:
              0.043435983 = score(doc=1537,freq=4.0), product of:
                0.10581345 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02013827 = queryNorm
                0.41049585 = fieldWeight in 1537, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1537)
          0.5 = coord(1/2)
        0.08450186 = weight(_text_:methoden in 1537) [ClassicSimilarity], result of:
          0.08450186 = score(doc=1537,freq=16.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.8097148 = fieldWeight in 1537, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1537)
        0.015700657 = weight(_text_:der in 1537) [ClassicSimilarity], result of:
          0.015700657 = score(doc=1537,freq=16.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.34902605 = fieldWeight in 1537, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1537)
      0.2 = coord(4/20)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    17.90 Literatur in Beziehung zu anderen Bereichen von Wissenschaft und Kultur
    Classification
    EC 1640 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Methoden der Literaturwissenschaft / Allgemeine Literaturwissenschaft / Einzelne Methoden EC 1300 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Hilfswissenschaften / Datenverarbeitung für Literaturwissenschaftler EC 1600 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Methoden der Literaturwissenschaft / Allgemeines
    18.00 Einzelne Sprachen und Literaturen allgemein
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    17.90 Literatur in Beziehung zu anderen Bereichen von Wissenschaft und Kultur
    RVK
    EC 1640 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Methoden der Literaturwissenschaft / Allgemeine Literaturwissenschaft / Einzelne Methoden EC 1300 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Hilfswissenschaften / Datenverarbeitung für Literaturwissenschaftler EC 1600 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine und vergleichende Literaturwissenschaft. / Methoden der Literaturwissenschaft / Allgemeines
  2. Stock, W.G.: Elektronische Informationsdienstleistungen und ihre Bedeutung für Wirtschaft und Wissenschaft (1995) 0.03
    0.030206842 = product of:
      0.10068947 = sum of:
        0.0114324065 = weight(_text_:23 in 1633) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=1633,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 1633, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
        0.0114324065 = weight(_text_:23 in 1633) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=1633,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 1633, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
        0.018548414 = weight(_text_:und in 1633) [ClassicSimilarity], result of:
          0.018548414 = score(doc=1633,freq=36.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41556883 = fieldWeight in 1633, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
        0.0114324065 = weight(_text_:23 in 1633) [ClassicSimilarity], result of:
          0.0114324065 = score(doc=1633,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.15839456 = fieldWeight in 1633, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
        0.033800744 = weight(_text_:methoden in 1633) [ClassicSimilarity], result of:
          0.033800744 = score(doc=1633,freq=4.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.32388592 = fieldWeight in 1633, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
        0.014043095 = weight(_text_:der in 1633) [ClassicSimilarity], result of:
          0.014043095 = score(doc=1633,freq=20.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.3121784 = fieldWeight in 1633, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1633)
      0.3 = coord(6/20)
    
    Abstract
    Betrachtet wird der europäische Entwurf der Informationsgesellschaft in der Folge des EG-Weißbuches von 1993 und der Tagung in Korfu (1994). Es zeigt sich die zentrale Rolle des Informationsengineering. Hier geht es um die Produktion, Speicherung, Verteilung und Abfrage von Informationen. Wirtschaftliche Kennziffern beleuchten den deutschen Informationsmarkt (Online-Datenbanken, CD-ROM, Videotex, professionelle Informationsvermittlung). Die Relevanz elektronischer Informationsdienste für die betriebswirtschaftliche Praxis (Branchen- und Konkurrenzanalysen, Benchmarking) wird anhand von konkreten Beispielrecherchen demonstriert. Elektronische Datenbanken gestatten, die wissenschaftliche Forschung im Rahmen der Wissenschaftsevaluation mittels Publikations- Zitations- oder Themenanalysen zu beschreiben und zu bewerten. Ein Kapitel beschreibt detailliert diejenigen Tätigkeiten, die beim Auf- und Ausbau elektronischer Informationsdienste routinemäßig durchgeführt werden, mit dem Ziel, Qualitätsmerkmale für die Informationstätigkeit abzuleiten. Die Komplexität der Informationstätigkeiten führt u.a. in Bereiche der fuzzy logic und der Informationshermeneutik. Abgeschlossen wird das Buch mit einer 'Anatomie' einer konkreten Datenbank. Beispiel ist die ifo Literaturdatenbank, die erfolgreich bei mehreren Hosts als Online-Datenbank sowie zusätzlich als CD-ROM Datenbank vermarktet wird
    BK
    85.20 Betriebliche Information und Kommunikation
    83.03 Methoden und Techniken der Volkswirtschaft
    85.20 Betriebliche Information und Kommunikation
    Classification
    AN 96400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Nutzung
    AN 96300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Wissensverbreitung, Informationsfluß
    85.20 Betriebliche Information und Kommunikation
    83.03 Methoden und Techniken der Volkswirtschaft
    85.20 Betriebliche Information und Kommunikation
    Date
    7. 3.2008 13:23:27
    RVK
    AN 96400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Nutzung
    AN 96300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Wissensverbreitung, Informationsfluß
  3. Leitbild Informationskompetenz : Positionen - Praxis - Perspektiven im europäischen Wissensmarkt. 27. Online-Tagung der DGI 2005/ 57. Jahrestagung der DGI, Frankfurt am Main, 23. bis 25. Mai 2005: Proceedings (2005) 0.02
    0.023430709 = product of:
      0.093722835 = sum of:
        0.02000671 = weight(_text_:23 in 1283) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1283,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1283)
        0.02000671 = weight(_text_:23 in 1283) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1283,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1283)
        0.020242194 = weight(_text_:und in 1283) [ClassicSimilarity], result of:
          0.020242194 = score(doc=1283,freq=14.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.4535172 = fieldWeight in 1283, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1283)
        0.02000671 = weight(_text_:23 in 1283) [ClassicSimilarity], result of:
          0.02000671 = score(doc=1283,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.27719048 = fieldWeight in 1283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1283)
        0.0134605095 = weight(_text_:der in 1283) [ClassicSimilarity], result of:
          0.0134605095 = score(doc=1283,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29922754 = fieldWeight in 1283, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1283)
      0.25 = coord(5/20)
    
    BK
    06.00 Information und Dokumentation: Allgemeines
    Classification
    AN 90600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Bibliographien, Sammelschriften / Tagungs- und Kongreßberichte periodisch (CSN)
    06.00 Information und Dokumentation: Allgemeines
    RVK
    AN 90600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Bibliographien, Sammelschriften / Tagungs- und Kongreßberichte periodisch (CSN)
    Series
    Tagungen der Deutschen Gesellschaft fu?r Informationswissenschaft und Informationspraxis ; Bd. 7
  4. Rosenfeld, L.; Morville, P.: Information architecture for the World Wide Web : designing large-scale Web sites (1998) 0.02
    0.01579081 = product of:
      0.078954056 = sum of:
        0.010003355 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.010003355 = score(doc=493,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.048943985 = weight(_text_:monographien in 493) [ClassicSimilarity], result of:
          0.048943985 = score(doc=493,freq=4.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            0.36457142 = fieldWeight in 493, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.010003355 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.010003355 = score(doc=493,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
        0.010003355 = weight(_text_:23 in 493) [ClassicSimilarity], result of:
          0.010003355 = score(doc=493,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.13859524 = fieldWeight in 493, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02734375 = fieldNorm(doc=493)
      0.2 = coord(4/20)
    
    Classification
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
    Date
    15. 8.2007 20:33:23
    RVK
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
  5. Schwersky, U.: Zur Problematik der Gestaltung von CD-ROM- Benutzeroberflächen (1992) 0.02
    0.015784351 = product of:
      0.105229005 = sum of:
        0.083903976 = weight(_text_:monographien in 523) [ClassicSimilarity], result of:
          0.083903976 = score(doc=523,freq=4.0), product of:
            0.13425075 = queryWeight, product of:
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.02013827 = queryNorm
            0.6249796 = fieldWeight in 523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.666449 = idf(docFreq=152, maxDocs=44218)
              0.046875 = fieldNorm(doc=523)
        0.014663808 = weight(_text_:und in 523) [ClassicSimilarity], result of:
          0.014663808 = score(doc=523,freq=10.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.328536 = fieldWeight in 523, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=523)
        0.006661224 = weight(_text_:der in 523) [ClassicSimilarity], result of:
          0.006661224 = score(doc=523,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.14807922 = fieldWeight in 523, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=523)
      0.15 = coord(3/20)
    
    Classification
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    ST 175 Informatik / Monographien / Technische Informatik / Speicher, Speicherverwaltung, (CD-ROM, optische Speicher, Pufferspeicher Magnetcassette Magnetplatte etc.)
    RVK
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    ST 175 Informatik / Monographien / Technische Informatik / Speicher, Speicherverwaltung, (CD-ROM, optische Speicher, Pufferspeicher Magnetcassette Magnetplatte etc.)
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.17
  6. Arafat, S.; Ashoori, E.: Search foundations : toward a science of technology-mediated experience (2018) 0.01
    0.013634086 = product of:
      0.06817043 = sum of:
        0.019808875 = weight(_text_:software in 158) [ClassicSimilarity], result of:
          0.019808875 = score(doc=158,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 158, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=158)
        0.008743806 = weight(_text_:und in 158) [ClassicSimilarity], result of:
          0.008743806 = score(doc=158,freq=8.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.19590102 = fieldWeight in 158, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=158)
        0.019808875 = weight(_text_:software in 158) [ClassicSimilarity], result of:
          0.019808875 = score(doc=158,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 158, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=158)
        0.019808875 = weight(_text_:software in 158) [ClassicSimilarity], result of:
          0.019808875 = score(doc=158,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 158, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=158)
      0.2 = coord(4/20)
    
    Classification
    AN 96000: Allgemeines / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    ST 278: Mensch-Maschine-Kommunikation Software-Ergonomie / Informatik / Monografien
    RSWK
    Informationsverhalten / Informations- und Dokumentationswissenschaft
    RVK
    AN 96000: Allgemeines / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    ST 278: Mensch-Maschine-Kommunikation Software-Ergonomie / Informatik / Monografien
    Subject
    Informationsverhalten / Informations- und Dokumentationswissenschaft
  7. Conner-Sax, K.; Krol, E.: ¬The whole Internet : the next generation (1999) 0.01
    0.012612916 = product of:
      0.063064575 = sum of:
        0.019808875 = weight(_text_:software in 1448) [ClassicSimilarity], result of:
          0.019808875 = score(doc=1448,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 1448, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=1448)
        0.019808875 = weight(_text_:software in 1448) [ClassicSimilarity], result of:
          0.019808875 = score(doc=1448,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 1448, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=1448)
        0.019808875 = weight(_text_:software in 1448) [ClassicSimilarity], result of:
          0.019808875 = score(doc=1448,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 1448, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=1448)
        0.0036379434 = product of:
          0.01091383 = sum of:
            0.01091383 = weight(_text_:22 in 1448) [ClassicSimilarity], result of:
              0.01091383 = score(doc=1448,freq=2.0), product of:
                0.07052079 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02013827 = queryNorm
                0.15476047 = fieldWeight in 1448, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1448)
          0.33333334 = coord(1/3)
      0.2 = coord(4/20)
    
    Abstract
    For a snapshot of something that is mutating as quickly as the Internet, The Whole Internet: The Next Generation exhibits remarkable comprehensiveness and accuracy. It's a good panoramic shot of Web sites, Usenet newsgroups, e-mail, mailing lists, chat software, electronic commerce, and the communities that have begun to emerge around all of these. This is the book to buy if you have a handle on certain aspects of the Internet experience--e-mail and Web surfing, for example--but want to learn what else the global network has to offer--say, Web banking or mailing-list management. The authors clearly have seen a thing or two online and are able to share their experiences entertainingly and with clarity. However, they commit the mistake of misidentifying an Amazon.com book review as a publisher's synopsis of a book. Aside from that transgression, The Whole Internet presents detailed information on much of the Internet. In most cases, coverage explains what something (online stock trading, free homepage sites, whatever) is all about and then provides you with enough how-to information to let you start exploring on your own. Coverage ranges from the super-basic (how to surf) to the fairly complex (sharing an Internet connection among several home computers on a network). Along the way, readers get insight into buying, selling, meeting, relating, and doing most everything else on the Internet. While other books explain the first steps into the Internet community with more graphics, this one will remain useful to the newcomer long after he or she has become comfortable using the Internet.
    Content
    Topics covered: Basic Internet connectivity, Internet software, mailing lists, newsgroups, netiquette, personal information security, shopping, auctions, games, basic Web publishing with HTML, and advanced home connectivity with local area networking.
    Footnote
    Rez. in: Internet Professionell. 2000, H.2, S.22
  8. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.01
    0.011312074 = product of:
      0.056560367 = sum of:
        0.014714637 = weight(_text_:und in 1443) [ClassicSimilarity], result of:
          0.014714637 = score(doc=1443,freq=58.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.32967478 = fieldWeight in 1443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.0076784696 = product of:
          0.015356939 = sum of:
            0.015356939 = weight(_text_:allgemein in 1443) [ClassicSimilarity], result of:
              0.015356939 = score(doc=1443,freq=2.0), product of:
                0.10581345 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.02013827 = queryNorm
                0.1451322 = fieldWeight in 1443, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1443)
          0.5 = coord(1/2)
        0.01493796 = weight(_text_:methoden in 1443) [ClassicSimilarity], result of:
          0.01493796 = score(doc=1443,freq=2.0), product of:
            0.10436003 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02013827 = queryNorm
            0.1431387 = fieldWeight in 1443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
        0.019229298 = weight(_text_:der in 1443) [ClassicSimilarity], result of:
          0.019229298 = score(doc=1443,freq=96.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.42746788 = fieldWeight in 1443, product of:
              9.797959 = tf(freq=96.0), with freq of:
                96.0 = termFreq=96.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1443)
      0.2 = coord(4/20)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  9. Towards the Semantic Web : ontology-driven knowledge management (2004) 0.01
    0.011119913 = product of:
      0.044479653 = sum of:
        0.010505242 = weight(_text_:software in 4401) [ClassicSimilarity], result of:
          0.010505242 = score(doc=4401,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.13149375 = fieldWeight in 4401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
        0.010505242 = weight(_text_:software in 4401) [ClassicSimilarity], result of:
          0.010505242 = score(doc=4401,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.13149375 = fieldWeight in 4401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
        0.003330612 = weight(_text_:der in 4401) [ClassicSimilarity], result of:
          0.003330612 = score(doc=4401,freq=2.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.07403961 = fieldWeight in 4401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
        0.010505242 = weight(_text_:software in 4401) [ClassicSimilarity], result of:
          0.010505242 = score(doc=4401,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.13149375 = fieldWeight in 4401, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4401)
        0.009633316 = product of:
          0.019266631 = sum of:
            0.019266631 = weight(_text_:engineering in 4401) [ClassicSimilarity], result of:
              0.019266631 = score(doc=4401,freq=2.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.17807582 = fieldWeight in 4401, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4401)
          0.5 = coord(1/2)
      0.25 = coord(5/20)
    
    Abstract
    With the current changes driven by the expansion of the World Wide Web, this book uses a different approach from other books on the market: it applies ontologies to electronically available information to improve the quality of knowledge management in large and distributed organizations. Ontologies are formal theories supporting knowledge sharing and reuse. They can be used to explicitly represent semantics of semi-structured information. These enable sophisticated automatic support for acquiring, maintaining and accessing information. Methodology and tools are developed for intelligent access to large volumes of semi-structured and textual information sources in intra- and extra-, and internet-based environments to employ the full power of ontologies in supporting knowledge management from the information client perspective and the information provider. The aim of the book is to support efficient and effective knowledge management and focuses on weakly-structured online information sources. It is aimed primarily at researchers in the area of knowledge management and information retrieval and will also be a useful reference for students in computer science at the postgraduate level and for business managers who are aiming to increase the corporations' information infrastructure. The Semantic Web is a very important initiative affecting the future of the WWW that is currently generating huge interest. The book covers several highly significant contributions to the semantic web research effort, including a new language for defining ontologies, several novel software tools and a coherent methodology for the application of the tools for business advantage. It also provides 3 case studies which give examples of the real benefits to be derived from the adoption of semantic-web based ontologies in "real world" situations. As such, the book is an excellent mixture of theory, tools and applications in an important area of WWW research. * Provides guidelines for introducing knowledge management concepts and tools into enterprises, to help knowledge providers present their knowledge efficiently and effectively. * Introduces an intelligent search tool that supports users in accessing information and a tool environment for maintenance, conversion and acquisition of information sources. * Discusses three large case studies which will help to develop the technology according to the actual needs of large and or virtual organisations and will provide a testbed for evaluating tools and methods. The book is aimed at people with at least a good understanding of existing WWW technology and some level of technical understanding of the underpinning technologies (XML/RDF). It will be of interest to graduate students, academic and industrial researchers in the field, and the many industrial personnel who are tracking WWW technology developments in order to understand the business implications. It could also be used to support undergraduate courses in the area but is not itself an introductory text.
    Content
    Inhalt: OIL and DAML + OIL: Ontology Languages for the Semantic Web (pages 11-31) / Dieter Fensel, Frank van Harmelen and Ian Horrocks A Methodology for Ontology-Based Knowledge Management (pages 33-46) / York Sure and Rudi Studer Ontology Management: Storing, Aligning and Maintaining Ontologies (pages 47-69) / Michel Klein, Ying Ding, Dieter Fensel and Borys Omelayenko Sesame: A Generic Architecture for Storing and Querying RDF and RDF Schema (pages 71-89) / Jeen Broekstra, Arjohn Kampman and Frank van Harmelen Generating Ontologies for the Semantic Web: OntoBuilder (pages 91-115) / R. H. P. Engels and T. Ch. Lech OntoEdit: Collaborative Engineering of Ontologies (pages 117-132) / York Sure, Michael Erdmann and Rudi Studer QuizRDF: Search Technology for the Semantic Web (pages 133-144) / John Davies, Richard Weeks and Uwe Krohn Spectacle (pages 145-159) / Christiaan Fluit, Herko ter Horst, Jos van der Meer, Marta Sabou and Peter Mika OntoShare: Evolving Ontologies in a Knowledge Sharing System (pages 161-177) / John Davies, Alistair Duke and Audrius Stonkus Ontology Middleware and Reasoning (pages 179-196) / Atanas Kiryakov, Kiril Simov and Damyan Ognyanov Ontology-Based Knowledge Management at Work: The Swiss Life Case Studies (pages 197-218) / Ulrich Reimer, Peter Brockhausen, Thorsten Lau and Jacqueline R. Reich Field Experimenting with Semantic Web Tools in a Virtual Organization (pages 219-244) / Victor Iosif, Peter Mika, Rikard Larsson and Hans Akkermans A Future Perspective: Exploiting Peer-To-Peer and the Semantic Web for Knowledge Management (pages 245-264) / Dieter Fensel, Steffen Staab, Rudi Studer, Frank van Harmelen and John Davies Conclusions: Ontology-driven Knowledge Management - Towards the Semantic Web? (pages 265-266) / John Davies, Dieter Fensel and Frank van Harmelen
  10. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.01
    0.0107226 = product of:
      0.0428904 = sum of:
        0.0070034945 = weight(_text_:software in 312) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=312,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.008743806 = weight(_text_:und in 312) [ClassicSimilarity], result of:
          0.008743806 = score(doc=312,freq=32.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.19590102 = fieldWeight in 312, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.0070034945 = weight(_text_:software in 312) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=312,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.013136111 = weight(_text_:der in 312) [ClassicSimilarity], result of:
          0.013136111 = score(doc=312,freq=70.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29201615 = fieldWeight in 312, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.0070034945 = weight(_text_:software in 312) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=312,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
      0.25 = coord(5/20)
    
    Abstract
    The book's central thesis is that information literacy, information architecture, and usability are all critical components of this new world order. Hand in hand with that is the contention that only by planning and designing the best possible software, devices, and Internet, will we be able to maintain this connectivity in the future. Morville's book is highlighted with full color illustrations and rich examples that bring his prose to life. Ambient Findability doesn't preach or pretend to know all the answers. Instead, it presents research, stories, and examples in support of its novel ideas. Are w truly at a critical point in our evolution where the quality of our digital networks will dictate how we behave as a species? Is findability indeed the primary key to a successful global marketplace in the 21st century and beyond. Peter Morville takes you on a thought-provoking tour of these memes and more -- ideas that will not only fascinate but will stir your creativity in practical ways that you can apply to your work immediately.
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 57(2006) H.3, S.177-178 (D. Lewandowski): "Wohl unbestritten ist, dass die Suche in Informationsbeständen eine immer größere Bedeutung erhält. Wir suchen nicht nur noch explizit, indem wir ein Informationssystem anwählen und dort eine Suche absetzen, sondern verwenden Suchfunktionen innerhalb von Programmen, auf Websites, innerhalb des Betriebssystems unseres Computers oder sogar ziemlich unbewusst, indem wir Informationen maßgeschneidert aufgrund einer einmal hinterlegten Suche oder eines automatisch erstellten Suchprofils erhalten. Man kann also in der Tat davon sprechen, dass wir von der Suche umgeben werden. Das ist mit dem Konzept der "Ambient Findability" gemeint. Angelehnt ist diese Bezeichnung an den Begriff der "Ambient Music" (in den 70er Jahren durch Brian Eno geprägt), die den Hörer umgibt und von ihm oft gar nicht aktiv wahrgenommen wird. Um eine Vorstellung von dieser Musik zu bekommen, eignet sich vielleicht am besten der Titel einer Platte eben von Brian Eno: "Music for Airports". Peter Morville, bekannt als Co-Autor des empfehlenswerten Buchs "Information Architecture for the World Wide Web"', hat sich nun mit der Veränderung der Suche auseinandergesetzt. Sein Buch bedient sich in ganz unterschiedlichen Disziplinen, um die Prozesse des Suchens, Stöberns und Findens aufzuzeigen. So finden sich Betrachtungen über die Orientierung des Menschen in unbekannten Umgebungen, über die Interaktion mit Informationssystemen, über das soziale Verhalten der Web-Nutzer (Stichworte: Content-Tagging, Folksonomies, Social Networking) und über technische Veränderungen durch die Verfügbarkeit von Informationssystemen in allen Lebenskontexten, vor allem auch über mobile Endgeräte. Das Buch ist in sieben Kapitel gegliedert. Das erste, "Lost and Found" betitelt, bietet auf wenigen Seiten die Definitionen der zentralen Begriffe ambient und findability, erläutert kurz das Konzept der Information Literacy und zeigt, dass die bessere Auffindbarkeit von Informationen nicht nur ein schöner Zusatznutzen ist, sondern sich für Unternehmen deutlich auszahlt.
    Das zweite Kapitel ("A Brief History of Wayfinding") beschreibt, wie Menschen sich in Umgebungen zurechtfinden. Dies ist insofern interessant, als hier nicht erst bei Informationssystemen oder dem WWW begonnen wird, sondern allgemeine Erkenntnisse beispielsweise über die Orientierung in natürlichen Umgebungen präsentiert werden. Viele typische Verhaltensweisen der Nutzer von Informationssystemen können so erklärt werden. So interessant dieses Thema allerdings ist, wirkt das Kapitel leider doch nur wie eine Zusammenstellung von Informationen aus zweiter Hand. Offensichtlich ist, dass Morville nicht selbst an diesen Themen geforscht hat, sondern die Ergebnisse (wenn auch auf ansprechende Weise) zusammengeschrieben hat. Dieser Eindruck bestätigt sich auch in weiteren Kapiteln: Ein flüssig geschriebener Text, der es jedoch an einigen Stellen an Substanz fehlen lässt. Kapitel drei, "Information Interaction" beginnt mit einem Rückgriff auf Calvin Mooers zentrale Aussage aus dem Jahre 1959: "An information retrieval system will tend not to be used whenever it is more painful and troublesome for a customer to have information than for him not to have it." In der Tat sollte man sich dies bei der Erstellung von Informationssystemen immer vergegenwärtigen; die Reihe der Systeme, die gerade an dieser Hürde gescheitert sind, ist lang. Das weitere Kapitel führt in einige zentrale Konzepte der Informationswissenschaft (Definition des Begriffs Information, Erläuterung des Information Retrieval, Wissensrepräsentation, Information Seeking Behaviour) ein, allerdings ohne jeden Anspruch auf Vollständigkeit. Es wirkt vielmehr so, dass der Autor sich die gerade für sein Anliegen passenden Konzepte auswählt und konkurrierende Ansätze beiseite lässt. Nur ein Beispiel: Im Abschnitt "Information Interaction" wird relativ ausführlich das Konzept des Berrypicking nach Marcia J. Bates präsentiert, allerdings wird es geradezu als exklusiv verkauft, was es natürlich bei weitem nicht ist. Natürlich kann es nicht Aufgabe dieses Buchs sein, einen vollständigen Überblick über alle Theorien des menschlichen Suchverhaltens zu geben (dies ist an anderer Stelle vorbildlich geleistet worden'), aber doch wenigstens der Hinweis auf einige zentrale Ansätze wäre angebracht gewesen. Spätestens in diesem Kapitel wird klar, dass das Buch sich definitiv nicht an Informationswissenschaftler wendet, die auf der einen Seite mit den grundlegenden Themen vertraut sein dürften, andererseits ein wenig mehr Tiefgang erwarten würden. Also stellt sich die Frage - und diese ist zentral für die Bewertung des gesamten Werks.
    Für wen wurde dieses Buch eigentlich geschrieben? Der Verlag, sonst für eher praktisch orientierte Computerbücher bekannt, ordnet es auf dem Umschlag den Bereichen "Marketing" sowie "Technology & Society" zu. Für letztere Zielgruppe ist es aber sicher weniger geeignet, da auch der gesellschaftliche Hintergrund zu dünn ist. So bleibt der Bereich Marketing oder doch eher die Zielgruppe derjenigen, die ohne fachbezogenes Studium in den Bereich Informationssysteme bzw. Informationsarchitektur "hineingeschlittert" sind. Für diese mag auch das Kapitel über "Information Interaction" (bedingt) geeignet sein, bietet es doch zumindest einen gut lesbaren Einblick in einige zentrale Punkte. Das vierte Kapitel ("Intertwingled") beschreibt den Zugriff auf Informationen mittels verschiedener Erdgeräte in unterschiedlichen Kontexten. Es geht hier neben neuen Ansätzen des Wegefindens, um lokalisierbare Objekte und Kleidung, in die Informationstechnologie mit eingebaut ist. Dabei handelt es sich um einen guten (und vor allem beispielreichen) Überblick der aufkommenden Technologien. Kapitel s behandelt die Integration von Push- und PullAnsätzen, wobei die zentrale Aussage lautet, dass beide Ansätze immer mehr zusammenwachsen und die Entscheidung für den einen oder den anderen Ansatz vom Nutzer spontan gemäß seinen Informationsbedürfnissen getroffen wird. In diesem Kapitel wird auch das Thema Personalisierung abgehandelt und auf die bei der Personalisierung entstehenden Probleme eingegangen. Lange Zeit wurde Personalisierung schlicht als ein Verfahren gesehen, aus einmal erfassten Nutzerdaten Empfehlungen abzuleiten. Dass dies nicht problemlos möglich ist, erläutert Morville an einigen Punkten. Etwas bedauerlich ist hier, dass die Erläuterungen sehr knapp gehalten sind. Gerade zu diesem interessanten Thema hätte man gerne mehr Details erfahren.
    Im Kapitel über das "Sociosemantic Web" werden die groben Grundzüge der Klassifikationslehre erläutert, um dann ausführlich auf neuere Ansätze der Web-Erschließung wie Social Tagging und Folksonomies einzugehen. Auch dieses Kapitel gibt eher einen Überblick als den schon Kundigen vertiefende Informationen zu liefern. Das letzte Kapitel widmet sich schließlich der Art, wie Entscheidungen getroffen werden, der Network Culture, dem Information Overload, um schließlich zu den "Inspired Decisions" zu gelangen - Entscheidungen, die sowohl auf "sachlichen Informationen" (also den klassischen Zutaten der "informed decisions") als auch aus aus Netzwerken stammenden Informationen wie etwa Empfehlungen durch Freunde oder Community-Mitglieder irgendeiner Art gewonnen werden. Fasst man zusammen, so ist an Morvilles Text besonders bemerkenswert, dass nach einigen Jahren, in denen die Suche im Web als ein Problem der Suche in unstrukturierten Daten angesehen wurde, nun wieder verstärkt Erschließungsansätze, die auf klassische Erschließungsinstrumente zurückgreifen, propagiert werden. Zwar sollen sie nicht in ihrer ursprünglichen Form angewandt werden, da den Nutzern nicht zuzumuten ist, sich mit den entsprechenden Regeln auseinanderzusetzen, aber auch hinter der auf den ersten Blick zumindest chaotisch wirkenden Folksonomy ist das Prinzip der Klassifikation zu erkennen. Um die modernen Ansätze erfolgreich zu machen, bedarf es aber dringend Information Professionals, die das "beste aus beiden Welten" verbinden, um moderne, für den Nutzer optimale Informationssysteme zu schaffen. Für die Gesamtbewertung des Buchs gelten die bereits zu einzelnen Kapitels angeführten Kritikpunkte: In erster Linie bleibt das Buch zu sehr an der Oberfläche und wirkt irgendwie "zusammengeschrieben" anstatt als Ergebnis der tiefgreifenden Beschäftigung mit dem Thema. Als eine Einführung in aufkommende Technologien rund um die Suche ist es aber durchaus geeignet - gut lesbar ist der Text auf jeden Fall.
  11. Rijsbergen, K. van: ¬The geometry of information retrieval (2004) 0.01
    0.010289166 = product of:
      0.06859444 = sum of:
        0.022864813 = weight(_text_:23 in 5459) [ClassicSimilarity], result of:
          0.022864813 = score(doc=5459,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 5459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5459)
        0.022864813 = weight(_text_:23 in 5459) [ClassicSimilarity], result of:
          0.022864813 = score(doc=5459,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 5459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5459)
        0.022864813 = weight(_text_:23 in 5459) [ClassicSimilarity], result of:
          0.022864813 = score(doc=5459,freq=2.0), product of:
            0.07217676 = queryWeight, product of:
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.02013827 = queryNorm
            0.31678912 = fieldWeight in 5459, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5840597 = idf(docFreq=3336, maxDocs=44218)
              0.0625 = fieldNorm(doc=5459)
      0.15 = coord(3/20)
    
    Date
    22.10.2006 13:23:59
  12. Rogers, R.: Digital methods (2013) 0.01
    0.010152954 = product of:
      0.05076477 = sum of:
        0.014006989 = weight(_text_:software in 2354) [ClassicSimilarity], result of:
          0.014006989 = score(doc=2354,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 2354, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2354)
        0.008743806 = weight(_text_:und in 2354) [ClassicSimilarity], result of:
          0.008743806 = score(doc=2354,freq=8.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.19590102 = fieldWeight in 2354, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2354)
        0.014006989 = weight(_text_:software in 2354) [ClassicSimilarity], result of:
          0.014006989 = score(doc=2354,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 2354, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2354)
        0.014006989 = weight(_text_:software in 2354) [ClassicSimilarity], result of:
          0.014006989 = score(doc=2354,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.17532499 = fieldWeight in 2354, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2354)
      0.2 = coord(4/20)
    
    Abstract
    In Digital Methods, Richard Rogers proposes a methodological outlook for social and cultural scholarly research on the Web that seeks to move Internet research beyond the study of online culture. It is not a toolkit for Internet research, or operating instructions for a software package; it deals with broader questions. How can we study social media to learn something about society rather than about social media use? How can hyperlinks reveal not just the value of a Web site but the politics of association? Rogers proposes repurposing Web-native techniques for research into cultural change and societal conditions. We can learn to reapply such "methods of the medium" as crawling and crowd sourcing, PageRank and similar algorithms, tag clouds and other visualizations; we can learn how they handle hits, likes, tags, date stamps, and other Web-native objects. By "thinking along" with devices and the objects they handle, digital research methods can follow the evolving methods of the medium. Rogers uses this new methodological outlook to examine the findings of inquiries into 9/11 search results, the recognition of climate change skeptics by climate-change-related Web sites, the events surrounding the Srebrenica massacre according to Dutch, Serbian, Bosnian, and Croatian Wikipedias, presidential candidates' social media "friends," and the censorship of the Iranian Web. With Digital Methods, Rogers introduces a new vision and method for Internet research and at the same time applies them to the Web's objects of study, from tiny particles (hyperlinks) to large masses (social media).
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RSWK
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
    Subject
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
  13. Kantardzic, M.: Data mining : concepts, models, methods, and algorithms (2003) 0.01
    0.008913995 = product of:
      0.059426628 = sum of:
        0.019808875 = weight(_text_:software in 2291) [ClassicSimilarity], result of:
          0.019808875 = score(doc=2291,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 2291, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2291)
        0.019808875 = weight(_text_:software in 2291) [ClassicSimilarity], result of:
          0.019808875 = score(doc=2291,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 2291, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2291)
        0.019808875 = weight(_text_:software in 2291) [ClassicSimilarity], result of:
          0.019808875 = score(doc=2291,freq=4.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.24794699 = fieldWeight in 2291, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=2291)
      0.15 = coord(3/20)
    
    Abstract
    This book offers a comprehensive introduction to the exploding field of data mining. We are surrounded by data, numerical and otherwise, which must be analyzed and processed to convert it into information that informs, instructs, answers, or otherwise aids understanding and decision-making. Due to the ever-increasing complexity and size of today's data sets, a new term, data mining, was created to describe the indirect, automatic data analysis techniques that utilize more complex and sophisticated tools than those which analysts used in the past to do mere data analysis. "Data Mining: Concepts, Models, Methods, and Algorithms" discusses data mining principles and then describes representative state-of-the-art methods and algorithms originating from different disciplines such as statistics, machine learning, neural networks, fuzzy logic, and evolutionary computation. Detailed algorithms are provided with necessary explanations and illustrative examples. This text offers guidance: how and when to use a particular software tool (with their companion data sets) from among the hundreds offered when faced with a data set to mine. This allows analysts to create and perform their own data mining experiments using their knowledge of the methodologies and techniques provided. This book emphasizes the selection of appropriate methodologies and data analysis software, as well as parameter tuning. These critically important, qualitative decisions can only be made with the deeper understanding of parameter meaning and its role in the technique that is offered here. Data mining is an exploding field and this book offers much-needed guidance to selecting among the numerous analysis programs that are available.
  14. Long, J.: Google hacking (2008) 0.01
    0.0066621024 = product of:
      0.044414014 = sum of:
        0.014499962 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
          0.014499962 = score(doc=2925,freq=22.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.3248651 = fieldWeight in 2925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.0117492955 = weight(_text_:der in 2925) [ClassicSimilarity], result of:
          0.0117492955 = score(doc=2925,freq=14.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.2611872 = fieldWeight in 2925, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
        0.018164756 = product of:
          0.03632951 = sum of:
            0.03632951 = weight(_text_:engineering in 2925) [ClassicSimilarity], result of:
              0.03632951 = score(doc=2925,freq=4.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.335783 = fieldWeight in 2925, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2925)
          0.5 = coord(1/2)
      0.15 = coord(3/20)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
    RSWK
    Google / Reverse Engineering / Datensicherung / Computersicherheit
    Subject
    Google / Reverse Engineering / Datensicherung / Computersicherheit
  15. Garfield, E.: Citation indexing : its theory and application in science, technology, and humanities (1979) 0.01
    0.0054342723 = product of:
      0.03622848 = sum of:
        0.018548414 = weight(_text_:und in 348) [ClassicSimilarity], result of:
          0.018548414 = score(doc=348,freq=16.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.41556883 = fieldWeight in 348, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=348)
        0.009420394 = weight(_text_:der in 348) [ClassicSimilarity], result of:
          0.009420394 = score(doc=348,freq=4.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.20941564 = fieldWeight in 348, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=348)
        0.008259674 = product of:
          0.016519347 = sum of:
            0.016519347 = weight(_text_:29 in 348) [ClassicSimilarity], result of:
              0.016519347 = score(doc=348,freq=2.0), product of:
                0.070840135 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.02013827 = queryNorm
                0.23319192 = fieldWeight in 348, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=348)
          0.5 = coord(1/2)
      0.15 = coord(3/20)
    
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
    AK 39900 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Technik der wissenschaftlichen Arbeit / Hilfsmittel zur wissenschaftlichen Arbeit
    Date
    29. 5.2007 12:50:08
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 96100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Herstellung von Bibliographien und Informationsdiensten
    AK 39900 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Technik der wissenschaftlichen Arbeit / Hilfsmittel zur wissenschaftlichen Arbeit
  16. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.00
    0.003361268 = product of:
      0.03361268 = sum of:
        0.012687467 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.012687467 = score(doc=494,freq=22.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.28425696 = fieldWeight in 494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
        0.020925213 = weight(_text_:der in 494) [ClassicSimilarity], result of:
          0.020925213 = score(doc=494,freq=58.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.4651681 = fieldWeight in 494, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=494)
      0.1 = coord(2/20)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Verbesserungen des Gewichtungsverfahrens sollten schließlich unterstützt werden durch Maßnahmen zur Optimierung der Retrievalumgebung, etwa durch - den Einsatz von Hypertextwerkzeugen; - die Integration der THEAS-Komponente, mit der die automatische Mehrwortgruppengewinnung mit Hilfe eines Mehrwortgruppen-Parsers möglich ist; dies könnte im Rahmen der Dialogführung mit dem Nutzer eingesetzt werden, wenn dieser Teilkomponenten solcher Mehrwortgruppen im Retrieval verwendet. Mit THEAS wäre daneben der Einstieg in das Retrieval über das Register mit kanonischen Formen möglich; - die Integration von Wörterbuchfunktionen zur Benutzerunterstützung. Eine Weiterentwicklung des SELIX-Verfahrens könnte daneben in diese Richtungen erfolgen: - Bildung von Dokument-Clustern. Dabei werden Dokumente in einem Dokumenten-Raum einander in dem Maße zugeordnet, in dem ihre selektierten Grundformen übereinstimmen. - Errichtung von statistisch basierten semantischen Netzen, in denen Grundformen einander in einem Begriffs-Raum in dem Maße zugeordnet werden, in dem sie "gemeinsam" in Dokumenten auftreten.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  17. Design and usability of digital libraries : case studies in the Asia-Pacific (2005) 0.00
    0.0031515728 = product of:
      0.021010485 = sum of:
        0.0070034945 = weight(_text_:software in 93) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=93,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 93, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=93)
        0.0070034945 = weight(_text_:software in 93) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=93,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 93, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=93)
        0.0070034945 = weight(_text_:software in 93) [ClassicSimilarity], result of:
          0.0070034945 = score(doc=93,freq=2.0), product of:
            0.07989157 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02013827 = queryNorm
            0.087662496 = fieldWeight in 93, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.015625 = fieldNorm(doc=93)
      0.15 = coord(3/20)
    
    Footnote
    Ultimately, the book emphasizes that universal access to a worldwide digital library is the common goal among all digital library designers. Being able to view the same information, no matter what format the material is in, is one of the next steps toward reaching this goal. This book also addresses various additional problems with designing and using digital libraries, such as pricing and costs, and the range of media types that currently exist. The writing styles differ from chapter to chapter because each is written by a different set of authors. In addition, the material in the chapters is presented quite diversely. For example, in chapter 5, the methodology section of the case study is explained in the form of mathematical equations, algorithms, and charts, and chapter 13 contains complex figures and diagrams, whereas on the other hand, chapter 16 is completely written in text. Although the different ways that the case studies are presented could be considered confusing to some, the entire book remains consistent and truly comes together as a whole because the chapters are organized so sensibly. Many figures, graphs, and tables are also provided throughout the chapters to guide readers visually. Particularly helpful are the sample screen shots of digital libraries in chapter 11. Here, readers can see exactly what would be seen when viewing a digital library catalog. In general, the language and style of the book are easy to understand, and any uncommon words and phrases are always clearly defined and explained. The authors mention that the book is primarily written for academics, college students, and practitioners who may want to learn more about the design and development of digital libraries. The authors do seem to target this audience because the language and writing style seem to be geared toward members of academia, although they may represent a wide variety of disciplines. As well, computer scientists and software developers who are interested in and have been researching digital libraries will find this book useful and applicable to their current research. In conclusion, this book provides a wide variation of case studies that prove to be informative to researchers interested in the development and future progress of digital libraries. In the information world that we live in today, digital libraries are becoming more and more prominent, and the case studies presented demonstrate that the vision for the future of digital libraries is to be able to include all types of materials, cultures, and languages within a single system. All in all, this book instills value to society and all members of the academic world can learn from it."
  18. Modern information retrieval (1999) 0.00
    0.0024280418 = product of:
      0.024280418 = sum of:
        0.010819908 = weight(_text_:und in 852) [ClassicSimilarity], result of:
          0.010819908 = score(doc=852,freq=4.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.24241515 = fieldWeight in 852, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=852)
        0.0134605095 = weight(_text_:der in 852) [ClassicSimilarity], result of:
          0.0134605095 = score(doc=852,freq=6.0), product of:
            0.044984195 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02013827 = queryNorm
            0.29922754 = fieldWeight in 852, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=852)
      0.1 = coord(2/20)
    
    Content
    "This book is a comprehensive presentation of information retrieval from a computer science point of view" - "Trotz der genannten Kritik kann der Band insgesamt empfohlen werden. Für die Lehre muss die Dimension der Benutzerorientierung allerdings von Anfang an durch weitere Texte abgedeckt werden. Für Praktiker kann das Buch mit seinem Glossar und Index auch als Nachschlgewerk diesen. Das umfangreiche Literaturverzeichnis und Hinweise auf Forschungsthemen mit Referenzen am Ende jedes Kapitels bieten für alle Themen die Möglichkeit zur Vertiefung
  19. Long, J.: Google hacking (2005) 0.00
    0.0022705945 = product of:
      0.04541189 = sum of:
        0.04541189 = product of:
          0.09082378 = sum of:
            0.09082378 = weight(_text_:engineering in 4551) [ClassicSimilarity], result of:
              0.09082378 = score(doc=4551,freq=4.0), product of:
                0.10819342 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.02013827 = queryNorm
                0.8394575 = fieldWeight in 4551, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4551)
          0.5 = coord(1/2)
      0.05 = coord(1/20)
    
    RSWK
    Google / Reverse Engineering / Datensicherung / Computersicherheit
    Subject
    Google / Reverse Engineering / Datensicherung / Computersicherheit
  20. Hildebrand, J.: Internet: Ratgeber für Lehrer (2000) 0.00
    7.7285053E-4 = product of:
      0.015457011 = sum of:
        0.015457011 = weight(_text_:und in 4839) [ClassicSimilarity], result of:
          0.015457011 = score(doc=4839,freq=4.0), product of:
            0.044633795 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02013827 = queryNorm
            0.34630734 = fieldWeight in 4839, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4839)
      0.05 = coord(1/20)
    
    BK
    81.68 Computereinsatz in Unterricht und Ausbildung
    Classification
    81.68 Computereinsatz in Unterricht und Ausbildung

Years

Languages

  • e 13
  • d 8

Types

  • m 21
  • s 4

Subjects

Classifications