Search (901 results, page 1 of 46)

  • × type_ss:"el"
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.87
    0.86859435 = product of:
      1.6286143 = sum of:
        0.08375694 = product of:
          0.2512708 = sum of:
            0.2512708 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.2512708 = score(doc=1826,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.03723266 = weight(_text_:web in 1826) [ClassicSimilarity], result of:
          0.03723266 = score(doc=1826,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.2512708 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.2512708 = score(doc=1826,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.53333336 = coord(8/15)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Popper, K.R.: Three worlds : the Tanner lecture on human values. Deliverd at the University of Michigan, April 7, 1978 (1978) 0.59
    0.59411585 = product of:
      1.2731054 = sum of:
        0.067005545 = product of:
          0.20101663 = sum of:
            0.20101663 = weight(_text_:3a in 230) [ClassicSimilarity], result of:
              0.20101663 = score(doc=230,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.7493574 = fieldWeight in 230, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=230)
          0.33333334 = coord(1/3)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
        0.20101663 = weight(_text_:2f in 230) [ClassicSimilarity], result of:
          0.20101663 = score(doc=230,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.7493574 = fieldWeight in 230, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=230)
      0.46666667 = coord(7/15)
    
    Source
    https%3A%2F%2Ftannerlectures.utah.edu%2F_documents%2Fa-to-z%2Fp%2Fpopper80.pdf&usg=AOvVaw3f4QRTEH-OEBmoYr2J_c7H
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.43
    0.43429717 = product of:
      0.81430715 = sum of:
        0.04187847 = product of:
          0.1256354 = sum of:
            0.1256354 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.1256354 = score(doc=4388,freq=2.0), product of:
                0.26825202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.031640913 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.01861633 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.01861633 = score(doc=4388,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.1256354 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1256354 = score(doc=4388,freq=2.0), product of:
            0.26825202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.031640913 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.53333336 = coord(8/15)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. XFML Core - eXchangeable Faceted Metadata Language (2003) 0.06
    0.057035662 = product of:
      0.21388373 = sum of:
        0.01609953 = product of:
          0.03219906 = sum of:
            0.03219906 = weight(_text_:online in 6673) [ClassicSimilarity], result of:
              0.03219906 = score(doc=6673,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.33531237 = fieldWeight in 6673, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6673)
          0.5 = coord(1/2)
        0.055018872 = weight(_text_:software in 6673) [ClassicSimilarity], result of:
          0.055018872 = score(doc=6673,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.43831247 = fieldWeight in 6673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=6673)
        0.03723266 = weight(_text_:web in 6673) [ClassicSimilarity], result of:
          0.03723266 = score(doc=6673,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 6673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=6673)
        0.105532676 = weight(_text_:site in 6673) [ClassicSimilarity], result of:
          0.105532676 = score(doc=6673,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.6070458 = fieldWeight in 6673, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.078125 = fieldNorm(doc=6673)
      0.26666668 = coord(4/15)
    
    Abstract
    The specification for XFML, a markup language designed to handle faceted classifications. Browsing the site (http://www.xfml.org/) will reveal news about XFML and links to related software and web sites. XFML is not an officially recognized Internet standard, but is the de facto standard.
    Theme
    Klassifikationssysteme im Online-Retrieval
  5. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.05
    0.045431033 = product of:
      0.17036636 = sum of:
        0.07497405 = weight(_text_:suchmaschine in 2133) [ClassicSimilarity], result of:
          0.07497405 = score(doc=2133,freq=10.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.41907007 = fieldWeight in 2133, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.046217255 = product of:
          0.09243451 = sum of:
            0.09243451 = weight(_text_:recherche in 2133) [ClassicSimilarity], result of:
              0.09243451 = score(doc=2133,freq=18.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.53897214 = fieldWeight in 2133, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.5 = coord(1/2)
        0.028588645 = weight(_text_:software in 2133) [ClassicSimilarity], result of:
          0.028588645 = score(doc=2133,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.22775385 = fieldWeight in 2133, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.020586418 = product of:
          0.041172836 = sum of:
            0.041172836 = weight(_text_:analyse in 2133) [ClassicSimilarity], result of:
              0.041172836 = score(doc=2133,freq=4.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.24697417 = fieldWeight in 2133, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  6. El-Ramly, N.; Peterson. R.E.; Volonino, L.: Top ten Web sites using search engines : the case of the desalination industry (1996) 0.03
    0.03499845 = product of:
      0.17499225 = sum of:
        0.009659718 = product of:
          0.019319436 = sum of:
            0.019319436 = weight(_text_:online in 945) [ClassicSimilarity], result of:
              0.019319436 = score(doc=945,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20118743 = fieldWeight in 945, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=945)
          0.5 = coord(1/2)
        0.038693316 = weight(_text_:web in 945) [ClassicSimilarity], result of:
          0.038693316 = score(doc=945,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.37471575 = fieldWeight in 945, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=945)
        0.12663922 = weight(_text_:site in 945) [ClassicSimilarity], result of:
          0.12663922 = score(doc=945,freq=8.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.728455 = fieldWeight in 945, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.046875 = fieldNorm(doc=945)
      0.2 = coord(3/15)
    
    Abstract
    The desalination industry involves the desalting of sea or brackish water and achieves the purpose of increasing the worls's effective water supply. There are approximately 4.000 desalination Web sites. The six major Internet search engines were used to determine, according to each of the six, the top twenty sites for desalination. Each site was visited and the 120 gross returns were pared down to the final ten - the 'Top Ten'. The Top Ten were then analyzed to determine what it was that made the sites useful and informative. The major attributes were: a) currency (up-to-date); b) search site capability; c) access to articles on desalination; d) newsletters; e) databases; f) product information; g) online conferencing; h) valuable links to other sites; l) communication links; j) site maps; and k) case studies. Reasons for having a Web site and the current status and prospects for Internet commerce are discussed
  7. Lischka, K.; Kremp, M.: Was der Google-Gegner weiß - und was nicht (2009) 0.03
    0.033019383 = product of:
      0.16509691 = sum of:
        0.11176472 = weight(_text_:suchmaschine in 4443) [ClassicSimilarity], result of:
          0.11176472 = score(doc=4443,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.62471277 = fieldWeight in 4443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=4443)
        0.01609953 = product of:
          0.03219906 = sum of:
            0.03219906 = weight(_text_:online in 4443) [ClassicSimilarity], result of:
              0.03219906 = score(doc=4443,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.33531237 = fieldWeight in 4443, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4443)
          0.5 = coord(1/2)
        0.03723266 = weight(_text_:web in 4443) [ClassicSimilarity], result of:
          0.03723266 = score(doc=4443,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 4443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=4443)
      0.2 = coord(3/15)
    
    Abstract
    Clevere Präsentation, schwache Datenbasis: Die Suchmaschine Wolfram Alpha wurde vorab schon als "Google Killer" gehandelt - jetzt hat SPIEGEL ONLINE eine erste Version getestet. Sie weiß viel über Aspirin, versagt bei Kultur - und hält die CDU für einen Regionalflughafen.
    Source
    http://www.spiegel.de/netzwelt/web/0,1518,623122,00.html
  8. Gillitzer, B.: Yewno (2017) 0.03
    0.032761175 = product of:
      0.122854404 = sum of:
        0.063223675 = weight(_text_:suchmaschine in 3447) [ClassicSimilarity], result of:
          0.063223675 = score(doc=3447,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.3533909 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.029049365 = product of:
          0.05809873 = sum of:
            0.05809873 = weight(_text_:recherche in 3447) [ClassicSimilarity], result of:
              0.05809873 = score(doc=3447,freq=4.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.33876523 = fieldWeight in 3447, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
        0.02200755 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
          0.02200755 = score(doc=3447,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.17532499 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.008573813 = product of:
          0.017147627 = sum of:
            0.017147627 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.017147627 = score(doc=3447,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  9. Beuth, P.: ¬Das Netz der Welt : Lobos Webciety (2009) 0.03
    0.031670418 = product of:
      0.09501125 = sum of:
        0.02794118 = weight(_text_:suchmaschine in 2136) [ClassicSimilarity], result of:
          0.02794118 = score(doc=2136,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.15617819 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
        0.011384088 = product of:
          0.022768175 = sum of:
            0.022768175 = weight(_text_:online in 2136) [ClassicSimilarity], result of:
              0.022768175 = score(doc=2136,freq=16.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23710167 = fieldWeight in 2136, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2136)
          0.5 = coord(1/2)
        0.032623094 = weight(_text_:soziale in 2136) [ClassicSimilarity], result of:
          0.032623094 = score(doc=2136,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.16875653 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
        0.013754718 = weight(_text_:software in 2136) [ClassicSimilarity], result of:
          0.013754718 = score(doc=2136,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.10957812 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
        0.009308165 = weight(_text_:web in 2136) [ClassicSimilarity], result of:
          0.009308165 = score(doc=2136,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.09014259 = fieldWeight in 2136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2136)
      0.33333334 = coord(5/15)
    
    Content
    "Es gibt Menschen, für die ist "offline" keine Option. Sascha Lobo ist so jemand. Zwölf bis 14 Stunden täglich verbringt er im Internet. "Offline sein ist wie Luft anhalten", hat er mal geschrieben. Der Berliner ist eine große Nummer in der Internet-Gemeinde, er ist Blogger, Buchautor, Journalist und Werbetexter. Er ist Mitarbeiter der Firma "Zentrale Intelligenz-Agentur", hat für das Blog Riesenmaschine den Grimme-Online-Award bekommen, seine Bücher ("Dinge geregelt kriegen - ohne einen Funken Selbstdisziplin") haben Kultstatus. Und politisch aktiv ist er auch: Er sitzt im Online-Beirat der SPD. Für die Cebit 2009 hat er den Bereich Webciety konzipiert. Dazu gehört der "Messestand der Zukunft", wie er sagt. Alles, was der Aussteller mitbringen muss, ist ein Laptop. Youtube wird dort vertreten sein, die Macher des Social Bookmarking-Werkzeugs "Mister Wong", aber auch Vertreter von DNAdigital, einer Plattform, auf der sich Unternehmen und Jugendliche über die Entwicklung des Internets austauschen. Webciety ist ein Kunstbegriff, der sich aus Web und Society zusammensetzt, und die vernetzte Gesellschaft bedeutet. Ein Großteil der sozialen Kommunikation - vor allem innerhalb einer Altersstufe - findet inzwischen im Netz statt. Dabei sind es nicht nur die Teenager, die sich bei SchülerVZ anmelden, oder die BWL-Studenten, die bei Xing berufliche Kontakte knüpfen wollen. Laut der aktuellen Studie "Digitales Leben" der Ludwig-Maximilians-Universität München ist jeder zweite deutsche Internetnutzer in mindestens einem Online-Netzwerk registriert. "Da kann man schon sehen, dass ein gewisser Umschwung in der gesamten Gesellschaft zu bemerken ist. Diesen Umschwung kann man durchaus auch auf der Cebit würdigen", sagt Lobo. Er hat angeblich 80 Prozent seiner Freunde online kennen gelernt. "Das hätte ich nicht gemacht, wenn ich nichts von mir ins Netz gestellt hätte." Für ihn sind die Internet-Netzwerke aber keineswegs die Fortsetzung des Poesiealbums mit anderen Mitteln: "Wovor man sich hüten sollte, ist, für alles, was im Netz passiert, Entsprechungen in der Kohlenstoffwelt zu finden. Eine Email ist eben kein Brief, eine SMS ist keine Postkarte."
    Die moderne Kommunikationstechnologie hat die Gesellschaft verändert. Mittlerweile wächst eine Generation heran, die zwischen Internet und dem, was Lobo leicht spöttisch die Kohlenstoffwelt nennt, gar nicht mehr trennt. "Wenn man heute mit 13-,14-, 15-Jährigen spricht, und die sagen: 'Dann hat er mir das erzählt, und dann haben wir uns Fotos angeguckt', dann ist überhaupt nicht klar, ob man das Auge in Auge gemacht hat oder im Netz. Es ist aber auch gar nicht so wichtig." Diese Veränderungen haben aber auch ihre Schattenseiten. Beispiel: Rottenneighbor.com, wo Nachbarn anonym denunziert werden. Oder die Gefahr, dass Personalchefs kompromittierende Fotos von einem Bewerber im Netz finden, wofür der sich beim Vorstellungsgespräch rechtfertigen muss, wenn er denn noch eingeladen wird. Für Lobo überwiegen die Vorteile der Vernetzung: "Der Mensch ist ein soziales Wesen und braucht die Interaktion. Und wenn das im Elektronischen stattfindet, dann will er daran teilnehmen, weil das alle anderen auch machen." US-Präsident Barack Obama hat das sehr professionell für seinen Wahlkampf genutzt. Er hat Profile bei Facebook, MySpace und Twitter eingerichtet und allein mit seiner Online-Präsenz zigtausende junge Wähler erreicht - selbst wenn er über seinen Twitter-Account so gut wie nichts Persönliches verbreitete, sondern nur die nächsten Wahlkampftermine veröffentlichte. Wer sich gut vernetzt, profitiert aber auch im Alltag davon. Ein Beispiel, das auf Wirtschaftsvorträgen gerne genannt wird, ist das einer Praktikantin, die neu in der Stadt ist und einen Zahnarzt sucht. Die Kollegen empfehlen ihr zwei, die sie für gleich gut halten. Was tut die Frau? Sie prüft im Internet, welcher Arzt besser vernetzt ist, denn der, vermutet sie, verfügt wahrscheinlich auch über die modernere Ausstattung.
    Auch ambitionierte soziale Projekte können gelingen: Refunite.org ist eine Art Suchmaschine, mit der Flüchtlinge weltweit nach vermissten Familienangehörigen suchen können. Lobo nennt als Beispiel die englische Seite fixmystreet.co.uk. Dort tragen Menschen ihre Postleitzahl ein und weisen auf Straßenschäden oder fehlende Schilder hin, oft bebildert mit selbst geschossenen Fotos. Die Eingaben werden an die zuständige Behörde weitergeleitet, damit die weiß, wo sie Schlaglöcher ausbessern muss. Online steht dann nachzulesen, was alles in einem Stadtteil verbessert wurde - und was nicht. "Das ist ein relativ simples Tool, das aber die Fähigkeit des Netzes, Informationen zwischen den Menschen neu zu sortieren, dazu nutzt, die Welt tatsächlich zu verbessern", sagt Lobo. 2009 feiert die Cebit also, dass wir alle online sind. In zehn Jahren wird sie feiern, dass wir das gar nicht mehr merken, glaubt Lobo: "Ich bin überzeugt davon, dass wir noch vernetzter sein werden." Halbautomatische Kommunikation nennt er das. "Dass zum Beispiel mein Handy ständig kommuniziert, wo ich gerade bin und diese Information einem ausgewählten Personenkreis zugängig macht. Dass mein Kalender intelligent wird und meldet, dass ein Freund zur gleichen Zeit in der Stadt ist. Vielleicht schlägt er dann vor: ,Wollt ihr euch da nicht treffen?' Solche Funktionen werden so normal sein, dass man im Prinzip ständig online ist, ohne dass es sich so anfühlt." Teilweise gibt es so etwas schon. Google hat mit "Latitude" gerade einen Ortungsdienst fürs Handy vorgestellt. Die Software sorgt dafür, dass ausgewählten Personen per Google Maps angezeigt wird, wo sich der Handybesitzer gerade aufhält. Der technophile Obama würde den Dienst wahrscheinlich mögen. Doch der Geheimdienst NSA wollte ihm sogar schon den Blackberry wegnehmen - damit der mächtigste Mann der Welt eben nicht ständig geortet werden kann."
  10. Louie, A.J.; Maddox, E.L.; Washington, W.: Using faceted classification to provide structure for information architecture (2003) 0.03
    0.031605165 = product of:
      0.15802582 = sum of:
        0.009659718 = product of:
          0.019319436 = sum of:
            0.019319436 = weight(_text_:online in 2471) [ClassicSimilarity], result of:
              0.019319436 = score(doc=2471,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20118743 = fieldWeight in 2471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2471)
          0.5 = coord(1/2)
        0.038693316 = weight(_text_:web in 2471) [ClassicSimilarity], result of:
          0.038693316 = score(doc=2471,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.37471575 = fieldWeight in 2471, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2471)
        0.10967278 = weight(_text_:site in 2471) [ClassicSimilarity], result of:
          0.10967278 = score(doc=2471,freq=6.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.63086057 = fieldWeight in 2471, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.046875 = fieldNorm(doc=2471)
      0.2 = coord(3/15)
    
    Abstract
    This is a short, but very thorough and very interesting, report on how the writers built a faceted classification for some legal information and used it to structure a web site with navigation and searching. There is a good summary of why facets work well and how they fit into bibliographic control in general. The last section is about their implementation of a web site for the Washington State Bar Association's Council for Legal Public Education. Their classification uses three facets: Purpose (the general aim of the document, e.g. Resources for K-12 Teachers), Topic (the subject of the document), and Type (the legal format of the document). See Example Web Sites, below, for a discussion of the site and a problem with its design.
    Theme
    Klassifikationssysteme im Online-Retrieval
  11. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.03
    0.030631492 = product of:
      0.11486809 = sum of:
        0.063223675 = weight(_text_:suchmaschine in 5938) [ClassicSimilarity], result of:
          0.063223675 = score(doc=5938,freq=4.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.3533909 = fieldWeight in 5938, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.006439812 = product of:
          0.012879624 = sum of:
            0.012879624 = weight(_text_:online in 5938) [ClassicSimilarity], result of:
              0.012879624 = score(doc=5938,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.13412495 = fieldWeight in 5938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
        0.025795544 = weight(_text_:web in 5938) [ClassicSimilarity], result of:
          0.025795544 = score(doc=5938,freq=6.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.24981049 = fieldWeight in 5938, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.01940906 = product of:
          0.03881812 = sum of:
            0.03881812 = weight(_text_:analyse in 5938) [ClassicSimilarity], result of:
              0.03881812 = score(doc=5938,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23284946 = fieldWeight in 5938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
    Content
    [Magisterarbeit] - Rez. in: Online Mitteilungen 2001, Nr.69, S.41-43 (K. Patzwaldt) (Vgl. auch: http://www.ideenreich.com/suchmaschinen/kritik.shtml)
  12. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.03
    0.030607982 = product of:
      0.11477993 = sum of:
        0.008049765 = product of:
          0.01609953 = sum of:
            0.01609953 = weight(_text_:online in 4399) [ClassicSimilarity], result of:
              0.01609953 = score(doc=4399,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.16765618 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
        0.06524619 = weight(_text_:soziale in 4399) [ClassicSimilarity], result of:
          0.06524619 = score(doc=4399,freq=2.0), product of:
            0.19331455 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.031640913 = queryNorm
            0.33751306 = fieldWeight in 4399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.026327467 = weight(_text_:web in 4399) [ClassicSimilarity], result of:
          0.026327467 = score(doc=4399,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25496176 = fieldWeight in 4399, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.015156505 = product of:
          0.03031301 = sum of:
            0.03031301 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.03031301 = score(doc=4399,freq=4.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.27358043 = fieldWeight in 4399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Abstract
    Produzenten bibliographischer Daten wie Bibliotheken, Verlage, Universitäten, Wissenschaftler oder soziale, webbasierte Literaturverwaltungsplattformen spielen eine wichtige Rolle bei der Entwicklung menschlichen Wissens. Damit ihre Arbeit der Gesellschaft in vollem Umfang zugutekommt, ist es zwingend erforderlich, bibliographische Daten zu öffnen, das heißt für alle zur beliebigen Nutzung frei verfügbar zu machen.
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
  13. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.03
    0.029838527 = product of:
      0.111894466 = sum of:
        0.03706034 = sum of:
          0.011384088 = weight(_text_:online in 1163) [ClassicSimilarity], result of:
            0.011384088 = score(doc=1163,freq=4.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.11855084 = fieldWeight in 1163, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1163)
          0.025676252 = weight(_text_:recherche in 1163) [ClassicSimilarity], result of:
            0.025676252 = score(doc=1163,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.14971448 = fieldWeight in 1163, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.01953125 = fieldNorm(doc=1163)
        0.023823872 = weight(_text_:software in 1163) [ClassicSimilarity], result of:
          0.023823872 = score(doc=1163,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.18979488 = fieldWeight in 1163, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.02462709 = weight(_text_:web in 1163) [ClassicSimilarity], result of:
          0.02462709 = score(doc=1163,freq=14.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.23849489 = fieldWeight in 1163, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.026383169 = weight(_text_:site in 1163) [ClassicSimilarity], result of:
          0.026383169 = score(doc=1163,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.15176146 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
      0.26666668 = coord(4/15)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
    Footnote
    Zum Thema: Im Internet: · Searchbots: Copernic http://www.copernic.com · Searchbots: Bingoo http://www.bingoo.de · Searchbots: BullsEye http://www.intelliseek.com/ · Searchbots: WebFerret http://www.ferretsoft.com · Seartchbots: Lexibot http://www.lexibot.com/ · Searchbot-Verzeichnis bei Searchenginewatch http://www.searchenginewatch.com/links/utilities.html · CNet Download: die Site, die alles hat http://www.download.com · August Kopisch: "Wie war zu Köln es doch vordem..." http://www.gutenberg2000.de/autoren/kopisch.htm
    Series
    SPIEGEL ONLINE - 14. November 2002
  14. Söhler, M.: Schluss mit Schema F (2011) 0.03
    0.026028767 = product of:
      0.13014384 = sum of:
        0.07743287 = weight(_text_:suchmaschine in 4439) [ClassicSimilarity], result of:
          0.07743287 = score(doc=4439,freq=6.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.4328137 = fieldWeight in 4439, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.033301905 = weight(_text_:web in 4439) [ClassicSimilarity], result of:
          0.033301905 = score(doc=4439,freq=10.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.32250395 = fieldWeight in 4439, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.01940906 = product of:
          0.03881812 = sum of:
            0.03881812 = weight(_text_:analyse in 4439) [ClassicSimilarity], result of:
              0.03881812 = score(doc=4439,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.23284946 = fieldWeight in 4439, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4439)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  15. Fife, E.D.; Husch, L.: ¬The Mathematics Archives : making mathematics easy to find on the Web (1999) 0.03
    0.025348311 = product of:
      0.12674156 = sum of:
        0.047647744 = weight(_text_:software in 1239) [ClassicSimilarity], result of:
          0.047647744 = score(doc=1239,freq=6.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.37958977 = fieldWeight in 1239, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1239)
        0.026327467 = weight(_text_:web in 1239) [ClassicSimilarity], result of:
          0.026327467 = score(doc=1239,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25496176 = fieldWeight in 1239, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1239)
        0.052766338 = weight(_text_:site in 1239) [ClassicSimilarity], result of:
          0.052766338 = score(doc=1239,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.3035229 = fieldWeight in 1239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1239)
      0.2 = coord(3/15)
    
    Abstract
    Do a search on AltaVista for "algebra". What do you get? Nearly 700,000 hits, of which AltaVista will allow you to view only what it determines is the top 200. Major search engines such as AltaVista, Excite, HotBot, Lycos, and the like continue to provide a valuable service, but with the recent growth of the Internet, topic-specific sites that provide some organization to the topic are increasingly important. It the goal of the Mathematics Archives to make it easier for the ordinary user to find useful mathematical information on the Web. The Mathematics Archives (http://archives.math.utk.edu) is a multipurpose site for mathematics on the Internet. The focus is on materials which can be used in mathematics education (primarily at the undergraduate level). Resources available range from shareware and public domain software to electronic proceedings of various conferences, to an extensive collection of annotated links to other mathematical sites. All materials on the Archives are categorized and cross referenced for the convenience of the user. Several search mechanisms are provided. The Harvest search engine is implemented to provide a full text search of most of the pages on the Archives. The software we house and our list of annotated links to mathematical sites are both categorized by subject matter. Each of these collections has a specialized search engine to assist the user in locating desired material. Services at the Mathematics Archives are divided up into five broad topics: * Links organized by Mathematical Topics * Software * Teaching Materials * Other Math Archives Features * Other Links
  16. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.02
    0.02458202 = product of:
      0.1229101 = sum of:
        0.0782353 = weight(_text_:suchmaschine in 4442) [ClassicSimilarity], result of:
          0.0782353 = score(doc=4442,freq=8.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.43729892 = fieldWeight in 4442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
        0.025418196 = product of:
          0.05083639 = sum of:
            0.05083639 = weight(_text_:recherche in 4442) [ClassicSimilarity], result of:
              0.05083639 = score(doc=4442,freq=4.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.2964196 = fieldWeight in 4442, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4442)
          0.5 = coord(1/2)
        0.019256605 = weight(_text_:software in 4442) [ClassicSimilarity], result of:
          0.019256605 = score(doc=4442,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15340936 = fieldWeight in 4442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
      0.2 = coord(3/15)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    Wer bei horizobu, das in einer englischsprachigen und einer deutschsprachigen Version (für die Schweiz) angeboten wird, nach einem bestimmten Begriff sucht, dem präsentiert der Dienst lediglich sechs möglichst relevante Ergebnisse in voneinander separierten Boxen. Einzelne dieser Boxen lassen sich löschen, wodurch ein weiteres Suchergebnis ans Tageslicht befördert wird. Mit einem Klick auf "More" wechselt man alle sechs Resultate aus. Gefällige Resultate lassen sich per Drag-And-Drop in der rechten Spalte ablegen und für später aufbewahren. Um seinem Entdeckeranspruch gerecht zu werden, listet horizobu oberhalb der Suchergebnisse zehn mit dem jeweiligen Suchwort verwandte Begriffe, die beliebig kombinierbar zur Verfeinerung und Erweiterung der bisherigen Suche verwendet werden können. Inspiriert durch die Vorschläge haben User auch die Möglichkeit, weitere Begriffe zur Eingrenzung hinzufügen. "Die Intelligenz aus Social Software führt teilweise zu überraschenden Fundstücken, die bislang mit herkömmlichen Suchmaschinen kaum erschlossen wurden", so Werner Hartmann, Titularprofessor der ETH Zürich und einer der zwei Gründer von horizobu. Nachdem Nutzer mit den Resultaten ihrer Recherche zufrieden sind und diese womöglich mit der Bookmarking-Funktion gespeichert haben, kann die so entstandene Linksammlung direkt über einen eindeutigen Link weiterversendet werden (das sieht z.B. so aus). Diese Funktion ist zwar nicht revolutionär, aber simpel, intuitiv und erfordert wenige Klicks.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  17. Mas, S.; Zaher, L'H.; Zacklad, M.: Design & evaluation of multi-viewed knowledge system for administrative electronic document organization (2008) 0.02
    0.02366874 = product of:
      0.17751554 = sum of:
        0.10792326 = sum of:
          0.025759248 = weight(_text_:online in 2480) [ClassicSimilarity], result of:
            0.025759248 = score(doc=2480,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.2682499 = fieldWeight in 2480, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0625 = fieldNorm(doc=2480)
          0.08216401 = weight(_text_:recherche in 2480) [ClassicSimilarity], result of:
            0.08216401 = score(doc=2480,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.47908637 = fieldWeight in 2480, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0625 = fieldNorm(doc=2480)
        0.06959227 = weight(_text_:evaluation in 2480) [ClassicSimilarity], result of:
          0.06959227 = score(doc=2480,freq=4.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.5243376 = fieldWeight in 2480, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0625 = fieldNorm(doc=2480)
      0.13333334 = coord(2/15)
    
    Abstract
    This communication describes part of a current research carried out at the Université de Technologie de Troyes and funded by a postdoctoral grant from the Fonds québécois de la recherche sur la société et la culture. Under the title "Design and evaluation of a faceted classification for uniform and personal organization of administrative electronic documents", our research investigates the feasibility of creating a faceted and multi-points-of-view classification scheme for administrative document organization and retrieval in online environments.
  18. Weigert, M.: Horizobu: Webrecherche statt Websuche (2011) 0.02
    0.02336496 = product of:
      0.08761859 = sum of:
        0.033529416 = weight(_text_:suchmaschine in 4443) [ClassicSimilarity], result of:
          0.033529416 = score(doc=4443,freq=2.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.18741383 = fieldWeight in 4443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4443)
        0.021787023 = product of:
          0.043574046 = sum of:
            0.043574046 = weight(_text_:recherche in 4443) [ClassicSimilarity], result of:
              0.043574046 = score(doc=4443,freq=4.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.25407392 = fieldWeight in 4443, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4443)
          0.5 = coord(1/2)
        0.016505662 = weight(_text_:software in 4443) [ClassicSimilarity], result of:
          0.016505662 = score(doc=4443,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.13149375 = fieldWeight in 4443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4443)
        0.015796479 = weight(_text_:web in 4443) [ClassicSimilarity], result of:
          0.015796479 = score(doc=4443,freq=4.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.15297705 = fieldWeight in 4443, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4443)
      0.26666668 = coord(4/15)
    
    Abstract
    In einem Artikel bei Netzwertig.com (horizobu: Erkunden statt suchen) bin ich auf eine neue Suchmaschine aus der Schweiz gestoßen: horizobu. Und ich muss gestehen, ich bin beeindruckt. horizobu macht Spaß und bietet etwas, was anderen Suchmaschinen fehlt.
    Content
    "Das Problem mit der Suchmaschinen-Optimierung Suchmaschinen sind unser Instrument, um mit der Informationsflut im Internet klar zu kommen. Wie ich in meinem Artikel Die kürzeste Anleitung zur Suchmaschinenoptimierung aller Zeiten ausgeführt habe, gibt es dabei leider das Problem, dass der Platzhirsch Google nicht wirklich die besten Suchresultate liefert: Habt ihr schon mal nach einem Hotel, einem Restaurant oder einer anderen Location gesucht - und die ersten vier Ergebnis-Seiten sind voller Location-Aggregatoren? Wenn ich ganz spezifisch nach einem Hotel soundso in der Soundso-Strasse suche, dann finde ich, das relevanteste Ergebnis ist die Webseite dieses Hotels. Das gehört auf Seite 1 an Platz 1. Dort aber finden sich nur die Webseiten, die ganz besonders dolle suchmaschinenoptimiert sind. Wobei Google Webseiten als am suchmaschinenoptimiertesten einstuft, wenn möglichst viele Links darauf zeigen und der Inhalt relevant sein soll. Die Industrie der Suchmaschinen-Optimierer erreicht dies dadurch, dass sie folgende Dinge machen: - sie lassen Programme und Praktikanten im Web rumschwirren, die sich überall mit hirnlosen Kommentaren verewigen (Hauptsache, die sind verlinkt und zeigen auf ihre zu pushende Webseite) - sie erschaffen geistlose Blogs, in denen hirnlose Texte stehen (Hauptsache, die Keyword-Dichte stimmt) - diese Texte lassen sie durch Schüler und Praktikanten oder gleich durch Software schreiben - Dann kommt es anscheinend noch auf Keywords im Titel, in der URL etc. an.
    All das führt zu folgenden negativen Begleiterscheinungen: - die meisten Kommentare heutzutage kriegt man nur noch des Links wegen: der eigentliche Sinn ist gleich Null - es gibt mittlerweile haufenweise Inhalte und ganze Blogs im Web, deren Ziel nur ist, von Google-Bots auf ihre Keyword-Dichte geprüft zu werden - aus meiner Sicht funktionieren SEO-Optimierungs-Unternehmen wie Schneeballsysteme: oben wird durch die Geschäftsführer Kohle gescheffelt, unten wird von den Praktikanten für wenig Geld sinnlos geschuftet. Aus meiner Sicht trägt Google zu diesen negativen Folgen sehr viel bei. Google legt nicht offen, sie sein Suchalgorithmus funktioniert - und es fördert damit diese Überflutung des Webs mit sinnlosen Kommentaren und Inhalten. Wie Du langsam aber sicher merkst, bin ich nicht der allergrößte Fan von Google (ich hoffe, die lesen das nicht - in Deutschland erfolgen mehr als 95% aller Suchen mit Google und ich will ja, dass der Denkpass weiterhin gut und leicht gefunden wird). horizobu - Nicht suchen, sondern recherchieren Nun ist horizobu nicht wirklich anders, zumindest in dieser Hinsicht. Aber es ist anders darin, wie es mit Suchergebnissen umgeht. Wenn Du etwas suchst, erscheinen sechs möglichst relevante Ergebnisse in einem großen Rahmen. Falls Dir diese Ergebnisse nicht zusagen, kannst Du sie einzeln (durch Klick auf das Kreuz an jedem Ergebnis) oder mehrere oder alle (durch Klick auf More) austauschen und durch die nächsten Ergebnisse ersetzen lassen. An jedem der sechs Ergebnisse gibt es auch eine Nadel zum Fixieren - dann kannst Du die anderen austauschen und dieses Ergebnis bleibt.
    Auch mit der Maus kannst Du die Ergebnisse bearbeiten - nach links geschoben, verschwinden sie. Nach rechts geschoben, landen sie in einem Container, der die von Dir ausgesuchten, wichtigsten Links sammelt. Diese Sammlung kannst Du anschliessend mit einem Klick per Facebook oder Twitter teilen, als Link zur Verfügung stellen (hier z.B. mein Link für eine kurze Recherche über Schlafen im Büro) oder alle dort gesammelten Links in neuen Browser-Tabs öffnen. Die Links bleiben übrigens erhalten, selbst wenn Du eine neue Suche beginnst. Oben, über den Ergebnissen, wartet horizobu mit zehn aus seiner Sicht relevanten Suchbegriffen auf, die Deiner Suche entsprechen. Nicht alle sind angeklickt - schaltest Du weitere an oder aus, verändern sich sofort Deine Ergebnisse. Du kannst auch weitere Schlagwörter eingeben, um Deiner Recherche eine neue Richtung zu geben. Ich bin beeindruckt, weil horizobu recherchieren ermöglicht, wo Google nur suchen erlaubt. Dazu kommt, dass horizobu bislang werbefrei ist, was ich auch nicht schlecht finde (obwohl ich, unter uns gesagt, noch nie bewusst auf eine Werbung geklickt habe). Es macht Spaß - ich suche ab jetzt mit horizobu."
  19. Denton, W.: Putting facets on the Web : an annotated bibliography (2003) 0.02
    0.02268027 = product of:
      0.08505101 = sum of:
        0.0069713015 = product of:
          0.013942603 = sum of:
            0.013942603 = weight(_text_:online in 2467) [ClassicSimilarity], result of:
              0.013942603 = score(doc=2467,freq=6.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.14519453 = fieldWeight in 2467, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2467)
          0.5 = coord(1/2)
        0.01945211 = weight(_text_:software in 2467) [ClassicSimilarity], result of:
          0.01945211 = score(doc=2467,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.15496688 = fieldWeight in 2467, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2467)
        0.03224443 = weight(_text_:web in 2467) [ClassicSimilarity], result of:
          0.03224443 = score(doc=2467,freq=24.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.3122631 = fieldWeight in 2467, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2467)
        0.026383169 = weight(_text_:site in 2467) [ClassicSimilarity], result of:
          0.026383169 = score(doc=2467,freq=2.0), product of:
            0.1738463 = queryWeight, product of:
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.031640913 = queryNorm
            0.15176146 = fieldWeight in 2467, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.494352 = idf(docFreq=493, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2467)
      0.26666668 = coord(4/15)
    
    Abstract
    This is a classified, annotated bibliography about how to design faceted classification systems and make them usable on the World Wide Web. It is the first of three works I will be doing. The second, based on the material here and elsewhere, will discuss how to actually make the faceted system and put it online. The third will be a report of how I did just that, what worked, what didn't, and what I learned. Almost every article or book listed here begins with an explanation of what a faceted classification system is, so I won't (but see Steckel in Background below if you don't already know). They all agree that faceted systems are very appropriate for the web. Even pre-web articles (such as Duncan's in Background, below) assert that hypertext and facets will go together well. Combined, it is possible to take a set of documents and classify them or apply subject headings to describe what they are about, then build a navigational structure so that any user, no matter how he or she approaches the material, no matter what his or her goals, can move and search in a way that makes sense to them, but still get to the same useful results as someone else following a different path to the same goal. There is no one way that everyone will always use when looking for information. The more flexible the organization of the information, the more accommodating it is. Facets are more flexible for hypertext browsing than any enumerative or hierarchical system.
    Consider movie listings in newspapers. Most Canadian newspapers list movie showtimes in two large blocks, for the two major theatre chains. The listings are ordered by region (in large cities), then theatre, then movie, and finally by showtime. Anyone wondering where and when a particular movie is playing must scan the complete listings. Determining what movies are playing in the next half hour is very difficult. When movie listings went onto the web, most sites used a simple faceted organization, always with movie name and theatre, and perhaps with region or neighbourhood (thankfully, theatre chains were left out). They make it easy to pick a theatre and see what movies are playing there, or to pick a movie and see what theatres are showing it. To complete the system, the sites should allow users to browse by neighbourhood and showtime, and to order the results in any way they desired. Thus could people easily find answers to such questions as, "Where is the new James Bond movie playing?" "What's showing at the Roxy tonight?" "I'm going to be out in in Little Finland this afternoon with three hours to kill starting at 2 ... is anything interesting playing?" A hypertext, faceted classification system makes more useful information more easily available to the user. Reading the books and articles below in chronological order will show a certain progression: suggestions that faceting and hypertext might work well, confidence that facets would work well if only someone would make such a system, and finally the beginning of serious work on actually designing, building, and testing faceted web sites. There is a solid basis of how to make faceted classifications (see Vickery in Recommended), but their application online is just starting. Work on XFML (see Van Dijck's work in Recommended) the Exchangeable Faceted Metadata Language, will make this easier. If it follows previous patterns, parts of the Internet community will embrace the idea and make open source software available for others to reuse. It will be particularly beneficial if professionals in both information studies and computer science can work together to build working systems, standards, and code. Each can benefit from the other's expertise in what can be a very complicated and technical area. One particularly nice thing about this area of research is that people interested in combining facets and the web often have web sites where they post their writings.
    This bibliography is not meant to be exhaustive, but unfortunately it is not as complete as I wanted. Some books and articles are not be included, but they may be used in my future work. (These include two books and one article by B.C. Vickery: Faceted Classification Schemes (New Brunswick, NJ: Rutgers, 1966), Classification and Indexing in Science, 3rd ed. (London: Butterworths, 1975), and "Knowledge Representation: A Brief Review" (Journal of Documentation 42 no. 3 (September 1986): 145-159; and A.C. Foskett's "The Future of Faceted Classification" in The Future of Classification, edited by Rita Marcella and Arthur Maltby (Aldershot, England: Gower, 2000): 69-80). Nevertheless, I hope this bibliography will be useful for those both new to or familiar with faceted hypertext systems. Some very basic resources are listed, as well as some very advanced ones. Some example web sites are mentioned, but there is no detailed technical discussion of any software. The user interface to any web site is extremely important, and this is briefly mentioned in two or three places (for example the discussion of lawforwa.org (see Example Web Sites)). The larger question of how to display information graphically and with hypertext is outside the scope of this bibliography. There are five sections: Recommended, Background, Not Relevant, Example Web Sites, and Mailing Lists. Background material is either introductory, advanced, or of peripheral interest, and can be read after the Recommended resources if the reader wants to know more. The Not Relevant category contains articles that may appear in bibliographies but are not relevant for my purposes.
    Theme
    Klassifikationssysteme im Online-Retrieval
  20. Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011) 0.02
    0.02215991 = product of:
      0.11079955 = sum of:
        0.06775376 = weight(_text_:suchmaschine in 4440) [ClassicSimilarity], result of:
          0.06775376 = score(doc=4440,freq=6.0), product of:
            0.17890577 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.031640913 = queryNorm
            0.378712 = fieldWeight in 4440, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.026062861 = weight(_text_:web in 4440) [ClassicSimilarity], result of:
          0.026062861 = score(doc=4440,freq=8.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 4440, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4440)
        0.016982928 = product of:
          0.033965856 = sum of:
            0.033965856 = weight(_text_:analyse in 4440) [ClassicSimilarity], result of:
              0.033965856 = score(doc=4440,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.20374328 = fieldWeight in 4440, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4440)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Content
    "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
    - Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
    - "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."

Languages

  • e 521
  • d 351
  • a 7
  • i 5
  • f 3
  • el 2
  • es 1
  • nl 1
  • More… Less…

Types

  • a 365
  • i 32
  • r 23
  • x 18
  • m 16
  • n 16
  • s 12
  • b 8
  • p 5
  • More… Less…

Themes