Search (932 results, page 1 of 47)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.51
    0.5066769 = product of:
      1.0133538 = sum of:
        0.054483652 = product of:
          0.16345096 = sum of:
            0.16345096 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16345096 = score(doc=2514,freq=2.0), product of:
                0.29082868 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03430388 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.03425189 = weight(_text_:web in 2514) [ClassicSimilarity], result of:
          0.03425189 = score(doc=2514,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.3059541 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23115456 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23115456 = score(doc=2514,freq=4.0), product of:
            0.29082868 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03430388 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23115456 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23115456 = score(doc=2514,freq=4.0), product of:
            0.29082868 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03430388 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23115456 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23115456 = score(doc=2514,freq=4.0), product of:
            0.29082868 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03430388 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23115456 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23115456 = score(doc=2514,freq=4.0), product of:
            0.29082868 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03430388 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(6/12)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
    Source
    WWW '02: Proceedings of the 11th International Conference on World Wide Web, May 7-11, 2002, Honolulu, Hawaii, USA
  2. Radev, D.; Fan, W.; Qu, H.; Wu, H.; Grewal, A.: Probabilistic question answering on the Web (2005) 0.06
    0.061677005 = product of:
      0.18503101 = sum of:
        0.04194983 = weight(_text_:web in 3455) [ClassicSimilarity], result of:
          0.04194983 = score(doc=3455,freq=6.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.37471575 = fieldWeight in 3455, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=3455)
        0.0070079383 = weight(_text_:information in 3455) [ClassicSimilarity], result of:
          0.0070079383 = score(doc=3455,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.116372846 = fieldWeight in 3455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3455)
        0.113515414 = weight(_text_:extraction in 3455) [ClassicSimilarity], result of:
          0.113515414 = score(doc=3455,freq=4.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.55698234 = fieldWeight in 3455, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.046875 = fieldNorm(doc=3455)
        0.02255783 = weight(_text_:system in 3455) [ClassicSimilarity], result of:
          0.02255783 = score(doc=3455,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.20878783 = fieldWeight in 3455, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=3455)
      0.33333334 = coord(4/12)
    
    Abstract
    Web-based search engines such as Google and NorthernLight return documents that are relevant to a user query, not answers to user questions. We have developed an architecture that augments existing search engines so that they support natural language question answering. The process entails five steps: query modulation, document retrieval, passage extraction, phrase extraction, and answer ranking. In this article, we describe some probabilistic approaches to the last three of these stages. We show how our techniques apply to a number of existing search engines, and we also present results contrasting three different methods for question answering. Our algorithm, probabilistic phrase reranking (PPR), uses proximity and question type features and achieves a total reciprocal document rank of .20 an the TREC8 corpus. Our techniques have been implemented as a Web-accessible system, called NSIR.
    Source
    Journal of the American Society for Information Science and Technology. 56(2005) no.6, S.571-583
  3. Trkulja, V.: Suche ist überall, Semantic Web setzt sich durch, Renaissance der Taxonomien (2005) 0.06
    0.060767993 = product of:
      0.24307197 = sum of:
        0.06850378 = weight(_text_:web in 3295) [ClassicSimilarity], result of:
          0.06850378 = score(doc=3295,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.6119082 = fieldWeight in 3295, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=3295)
        0.014015877 = weight(_text_:information in 3295) [ClassicSimilarity], result of:
          0.014015877 = score(doc=3295,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.23274569 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=3295)
        0.16055231 = weight(_text_:suche in 3295) [ClassicSimilarity], result of:
          0.16055231 = score(doc=3295,freq=4.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.93677926 = fieldWeight in 3295, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.09375 = fieldNorm(doc=3295)
      0.25 = coord(3/12)
    
    Abstract
    Ein Schwerpunkt der Online Information 2004 bildete das Thema "Search": Wie wird die Suche in 2005 aussehen? Welche Bedeutung haben Taxonomien? Wie verändern sich Suchfunktionen?
    Theme
    Semantic Web
  4. Naing, M.-M.; Lim, E.-P.; Chiang, R.H.L.: Extracting link chains of relationship instances from a Web site (2006) 0.06
    0.060050547 = product of:
      0.24020219 = sum of:
        0.07265923 = weight(_text_:web in 6111) [ClassicSimilarity], result of:
          0.07265923 = score(doc=6111,freq=18.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.64902663 = fieldWeight in 6111, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=6111)
        0.0070079383 = weight(_text_:information in 6111) [ClassicSimilarity], result of:
          0.0070079383 = score(doc=6111,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.116372846 = fieldWeight in 6111, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=6111)
        0.16053502 = weight(_text_:extraction in 6111) [ClassicSimilarity], result of:
          0.16053502 = score(doc=6111,freq=8.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.78769195 = fieldWeight in 6111, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.046875 = fieldNorm(doc=6111)
      0.25 = coord(3/12)
    
    Abstract
    Web pages from a Web site can often be associated with concepts in an ontology, and pairs of Web pages also can be associated with relationships between concepts. With such associations, the Web site can be searched, browsed, or even reorganized based on the concept and relationship labels of its Web pages. In this article, we study the link chain extraction problem that is critical to the extraction of Web pages that are related. A link chain is an ordered list of anchor elements linking two Web pages related by some semantic relationship. We propose a link chain extraction method that derives extraction rules for identifying the anchor elements forming the link chains. We applied the proposed method to two well-structured Web sites and found that its performance in terms of precision and recall is good, even with a small number of training examples.
    Source
    Journal of the American Society for Information Science and Technology. 57(2006) no.12, S.1590-1605
  5. Fu, T.; Abbasi, A.; Chen, H.: ¬A focused crawler for Dark Web forums (2010) 0.06
    0.05695843 = product of:
      0.17087528 = sum of:
        0.06054936 = weight(_text_:web in 3471) [ClassicSimilarity], result of:
          0.06054936 = score(doc=3471,freq=18.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.5408555 = fieldWeight in 3471, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3471)
        0.0058399485 = weight(_text_:information in 3471) [ClassicSimilarity], result of:
          0.0058399485 = score(doc=3471,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.09697737 = fieldWeight in 3471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3471)
        0.06688959 = weight(_text_:extraction in 3471) [ClassicSimilarity], result of:
          0.06688959 = score(doc=3471,freq=2.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.32820496 = fieldWeight in 3471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3471)
        0.037596382 = weight(_text_:system in 3471) [ClassicSimilarity], result of:
          0.037596382 = score(doc=3471,freq=8.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.3479797 = fieldWeight in 3471, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3471)
      0.33333334 = coord(4/12)
    
    Abstract
    The unprecedented growth of the Internet has given rise to the Dark Web, the problematic facet of the Web associated with cybercrime, hate, and extremism. Despite the need for tools to collect and analyze Dark Web forums, the covert nature of this part of the Internet makes traditional Web crawling techniques insufficient for capturing such content. In this study, we propose a novel crawling system designed to collect Dark Web forum content. The system uses a human-assisted accessibility approach to gain access to Dark Web forums. Several URL ordering features and techniques enable efficient extraction of forum postings. The system also includes an incremental crawler coupled with a recall-improvement mechanism intended to facilitate enhanced retrieval and updating of collected content. Experiments conducted to evaluate the effectiveness of the human-assisted accessibility approach and the recall-improvement-based, incremental-update procedure yielded favorable results. The human-assisted approach significantly improved access to Dark Web forums while the incremental crawler with recall improvement also outperformed standard periodic- and incremental-update approaches. Using the system, we were able to collect over 100 Dark Web forums from three regions. A case study encompassing link and content analysis of collected forums was used to illustrate the value and importance of gathering and analyzing content from such online communities.
    Source
    Journal of the American Society for Information Science and Technology. 61(2010) no.6, S.1213-1231
  6. Chang, C.-H.; Hsu, C.-C.: Customizable multi-engine search tool with clustering (1997) 0.05
    0.054828744 = product of:
      0.16448623 = sum of:
        0.02825637 = weight(_text_:web in 2670) [ClassicSimilarity], result of:
          0.02825637 = score(doc=2670,freq=2.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.25239927 = fieldWeight in 2670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2670)
        0.09364543 = weight(_text_:extraction in 2670) [ClassicSimilarity], result of:
          0.09364543 = score(doc=2670,freq=2.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.45948696 = fieldWeight in 2670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2670)
        0.026317468 = weight(_text_:system in 2670) [ClassicSimilarity], result of:
          0.026317468 = score(doc=2670,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.2435858 = fieldWeight in 2670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2670)
        0.016266957 = product of:
          0.032533914 = sum of:
            0.032533914 = weight(_text_:22 in 2670) [ClassicSimilarity], result of:
              0.032533914 = score(doc=2670,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.2708308 = fieldWeight in 2670, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2670)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Proposes a new idea of searching under the multi-engine search architecture to overcome the problems associated with relevance ranking. These include clustering of the search results and extraction of co-occurence keywords, which, with the user's feedback, better refines the query in the searching process. The system also provides the construction of the concept space to gradually customize the search tool to fit the usage for the user at the same time
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue of papers from the 6th International World Wide Web conference, held 7-11 Apr 1997, Santa Clara, California
  7. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.05
    0.048509195 = product of:
      0.14552759 = sum of:
        0.04036624 = weight(_text_:web in 4063) [ClassicSimilarity], result of:
          0.04036624 = score(doc=4063,freq=8.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.36057037 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.011679897 = weight(_text_:information in 4063) [ClassicSimilarity], result of:
          0.011679897 = score(doc=4063,freq=8.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.19395474 = fieldWeight in 4063, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.066896796 = weight(_text_:suche in 4063) [ClassicSimilarity], result of:
          0.066896796 = score(doc=4063,freq=4.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.3903247 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.026584659 = weight(_text_:system in 4063) [ClassicSimilarity], result of:
          0.026584659 = score(doc=4063,freq=4.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.24605882 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.33333334 = coord(4/12)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
  8. Ardo, A.; Lundberg, S.: ¬A regional distributed WWW search and indexing service : the DESIRE way (1998) 0.04
    0.039136328 = product of:
      0.117408976 = sum of:
        0.048439488 = weight(_text_:web in 4190) [ClassicSimilarity], result of:
          0.048439488 = score(doc=4190,freq=8.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.43268442 = fieldWeight in 4190, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4190)
        0.009910721 = weight(_text_:information in 4190) [ClassicSimilarity], result of:
          0.009910721 = score(doc=4190,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.16457605 = fieldWeight in 4190, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4190)
        0.04511566 = weight(_text_:system in 4190) [ClassicSimilarity], result of:
          0.04511566 = score(doc=4190,freq=8.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.41757566 = fieldWeight in 4190, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=4190)
        0.013943106 = product of:
          0.027886212 = sum of:
            0.027886212 = weight(_text_:22 in 4190) [ClassicSimilarity], result of:
              0.027886212 = score(doc=4190,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.23214069 = fieldWeight in 4190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4190)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Creates an open, metadata aware system for distributed, collaborative WWW indexing. The system has 3 main components: a harvester (for collecting information), a database (for making the collection searchable), and a user interface (for making the information available). all components can be distributed across networked computers, thus supporting scalability. The system is metadata aware and thus allows searches on several fields including title, document author and URL. Nordic Web Index (NWI) is an application using this system to create a regional Nordic Web-indexing service. NWI is built using 5 collaborating service points within the Nordic countries. The NWI databases can be used to build additional services
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue devoted to the Proceedings of the 7th International World Wide Web Conference, held 14-18 April 1998, Brisbane, Australia
    Object
    Nordic Web Index
  9. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.04
    0.038173202 = product of:
      0.091615684 = sum of:
        0.016146496 = weight(_text_:web in 4871) [ClassicSimilarity], result of:
          0.016146496 = score(doc=4871,freq=8.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.14422815 = fieldWeight in 4871, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.005721958 = weight(_text_:information in 4871) [ClassicSimilarity], result of:
          0.005721958 = score(doc=4871,freq=12.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.09501803 = fieldWeight in 4871, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.05006098 = weight(_text_:suche in 4871) [ClassicSimilarity], result of:
          0.05006098 = score(doc=4871,freq=14.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.29209226 = fieldWeight in 4871, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.015038553 = weight(_text_:system in 4871) [ClassicSimilarity], result of:
          0.015038553 = score(doc=4871,freq=8.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.13919188 = fieldWeight in 4871, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.0046477024 = product of:
          0.009295405 = sum of:
            0.009295405 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.009295405 = score(doc=4871,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.41666666 = coord(5/12)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    22. 1.2006 18:34:49
  10. Semantische Suche über 500 Millionen Web-Dokumente (2009) 0.04
    0.037818365 = product of:
      0.15127346 = sum of:
        0.048439488 = weight(_text_:web in 2434) [ClassicSimilarity], result of:
          0.048439488 = score(doc=2434,freq=8.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.43268442 = fieldWeight in 2434, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.080276154 = weight(_text_:suche in 2434) [ClassicSimilarity], result of:
          0.080276154 = score(doc=2434,freq=4.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.46838963 = fieldWeight in 2434, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
        0.02255783 = weight(_text_:system in 2434) [ClassicSimilarity], result of:
          0.02255783 = score(doc=2434,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.20878783 = fieldWeight in 2434, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=2434)
      0.25 = coord(3/12)
    
    Content
    "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert, berichtet Technology Review in seiner Online-Ausgabe. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbstständig ermittelt.""
    Source
    http://www.heise.de/newsticker/Semantische-Suche-ueber-500-Millionen-Web-Dokumente--/meldung/140630
  11. Fordahl, M.: Mit Google den PC durchforsten : Kleines Programm erstellt in rechenfreien Zeiten einen Index (2004) 0.04
    0.03768712 = product of:
      0.15074848 = sum of:
        0.028543243 = weight(_text_:web in 4209) [ClassicSimilarity], result of:
          0.028543243 = score(doc=4209,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.25496176 = fieldWeight in 4209, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4209)
        0.10577313 = weight(_text_:suche in 4209) [ClassicSimilarity], result of:
          0.10577313 = score(doc=4209,freq=10.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.6171576 = fieldWeight in 4209, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4209)
        0.016432108 = product of:
          0.032864217 = sum of:
            0.032864217 = weight(_text_:22 in 4209) [ClassicSimilarity], result of:
              0.032864217 = score(doc=4209,freq=4.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.27358043 = fieldWeight in 4209, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4209)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Content
    "Die Google-Suche nach Dateien im Internet kann nun auch auf en eigenen PC ausgedehnt werden. Ein kleines kostenloses Programm, das sich am unteren Bildschirmrand einnistet, startet die Volltextsuche auf der Festplatte. Google erfasst den Inhalt aller Web-Seiten und Dokumente im Microsoft-Office-Format sowie die Namen sonstiger Dateien und zeigt die Trefferliste im Browser in der vertrauten Liste an - allerdings nur auf Computern mit Windows 2000 oder Windows XE Bei der Entwicklung dieses Werkzeugs hat Google sowohl die eigene Suchtechnologie als auch eine Schwäche von Windows ausgenutzt. Bei der "Desktop-Suche" kommt der gleiche Algorithmus zum Einsatz wie bei der Internet-Suche. Für die dazu benötigte Datenbank wird der Index-Dienst von Windows verwendet, der nur wenigen Anwendern bekannt ist, weil er etwas kompliziert und obendrein ziemlich langsam ist. Das neue Google Tool erstellt selbst diesen Suchindex für die Dateien in der Zeit, wenn der Computer gerade untätig ist. Sobald das 400 KB große Programm heruntergeladen und installiert ist, fängt es damit an, den PC zu durchforsten. Bei gut gefüllten Festplatten dauert es ein paar Stunden oder auch ein paar Tage, bis dieser Vorgang abgeschlossen ist. Sobald der Prozessor 30 Sekunden nichts zu tun hat, wird die Arbeit am Index aufgenommen beziehungsweise fortgesetzt. Ist er fertig, bietet diese Datenbank das Material, auf den sich der Google- Algorithmus stürzt, sobald eine Suchanfrage gestartet wird. Die meisten Google-Tricks für die Suche nach Web-Seiten, Bildern oder Beiträgen in Newsgroups funktionieren auch bei der Desktop-Suche."
    Date
    3. 5.1997 8:44:22
    Source
    Bergische Landeszeitung. Nr.247 vom 21.10.2004, S.22
  12. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.04
    0.035360273 = product of:
      0.14144109 = sum of:
        0.054157 = weight(_text_:web in 4323) [ClassicSimilarity], result of:
          0.054157 = score(doc=4323,freq=10.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.48375595 = fieldWeight in 4323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.0070079383 = weight(_text_:information in 4323) [ClassicSimilarity], result of:
          0.0070079383 = score(doc=4323,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.116372846 = fieldWeight in 4323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.080276154 = weight(_text_:suche in 4323) [ClassicSimilarity], result of:
          0.080276154 = score(doc=4323,freq=4.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.46838963 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.25 = coord(3/12)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
    RSWK
    World Wide Web 2.0 / Suchmaschine
    Subject
    World Wide Web 2.0 / Suchmaschine
  13. Garcés, P.J.; Olivas, J.A.; Romero, F.P.: Concept-matching IR systems versus word-matching information retrieval systems : considering fuzzy interrelations for indexing Web pages (2006) 0.04
    0.035342123 = product of:
      0.10602637 = sum of:
        0.04513083 = weight(_text_:web in 5288) [ClassicSimilarity], result of:
          0.04513083 = score(doc=5288,freq=10.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.40312994 = fieldWeight in 5288, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5288)
        0.011679897 = weight(_text_:information in 5288) [ClassicSimilarity], result of:
          0.011679897 = score(doc=5288,freq=8.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.19395474 = fieldWeight in 5288, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5288)
        0.037596382 = weight(_text_:system in 5288) [ClassicSimilarity], result of:
          0.037596382 = score(doc=5288,freq=8.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.3479797 = fieldWeight in 5288, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5288)
        0.011619256 = product of:
          0.023238512 = sum of:
            0.023238512 = weight(_text_:22 in 5288) [ClassicSimilarity], result of:
              0.023238512 = score(doc=5288,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.19345059 = fieldWeight in 5288, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5288)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    This article presents a semantic-based Web retrieval system that is capable of retrieving the Web pages that are conceptually related to the implicit concepts of the query. The concept of concept is managed from a fuzzy point of view by means of semantic areas. In this context, the proposed system improves most search engines that are based on matching words. The key of the system is to use a new version of the Fuzzy Interrelations and Synonymy-Based Concept Representation Model (FIS-CRM) to extract and represent the concepts contained in both the Web pages and the user query. This model, which was integrated into other tools such as the Fuzzy Interrelations and Synonymy based Searcher (FISS) metasearcher and the fz-mail system, considers the fuzzy synonymy and the fuzzy generality interrelations as a means of representing word interrelations (stored in a fuzzy synonymy dictionary and ontologies). The new version of the model, which is based on the study of the cooccurrences of synonyms, integrates a soft method for disambiguating word senses. This method also considers the context of the word to be disambiguated and the thematic ontologies and sets of synonyms stored in the dictionary.
    Date
    22. 7.2006 17:14:12
    Footnote
    Beitrag in einer Special Topic Section on Soft Approaches to Information Retrieval and Information Access on the Web
    Source
    Journal of the American Society for Information Science and Technology. 57(2006) no.4, S.564-576
  14. Web search engine research (2012) 0.04
    0.03517122 = product of:
      0.14068487 = sum of:
        0.05932602 = weight(_text_:web in 478) [ClassicSimilarity], result of:
          0.05932602 = score(doc=478,freq=12.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.5299281 = fieldWeight in 478, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=478)
        0.012138106 = weight(_text_:information in 478) [ClassicSimilarity], result of:
          0.012138106 = score(doc=478,freq=6.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.20156369 = fieldWeight in 478, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=478)
        0.06922076 = product of:
          0.13844152 = sum of:
            0.13844152 = weight(_text_:aufsatzsammlung in 478) [ClassicSimilarity], result of:
              0.13844152 = score(doc=478,freq=4.0), product of:
                0.2250708 = queryWeight, product of:
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.03430388 = queryNorm
                0.61510205 = fieldWeight in 478, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.5610886 = idf(docFreq=169, maxDocs=44218)
                  0.046875 = fieldNorm(doc=478)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    "Web Search Engine Research", edited by Dirk Lewandowski, provides an understanding of Web search engines from the unique perspective of Library and Information Science. The book explores a range of topics including retrieval effectiveness, user satisfaction, the evaluation of search interfaces, the impact of search on society, reliability of search results, query log analysis, user guidance in the search process, and the influence of search engine optimization (SEO) on results quality. While research in computer science has mainly focused on technical aspects of search engines, LIS research is centred on users' behaviour when using search engines and how this interaction can be evaluated. LIS research provides a unique perspective in intermediating between the technical aspects, user aspects and their impact on their role in knowledge acquisition. This book is directly relevant to researchers and practitioners in library and information science, computer science, including Web researchers.
    LCSH
    Web search engines
    RSWK
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Series
    Library and information science; vol. 4
    Subject
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Web search engines
  15. Bradley, P.: Advanced Internet searcher's handbook (1998) 0.03
    0.034093212 = product of:
      0.13637285 = sum of:
        0.057086486 = weight(_text_:web in 5454) [ClassicSimilarity], result of:
          0.057086486 = score(doc=5454,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.5099235 = fieldWeight in 5454, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=5454)
        0.026117044 = weight(_text_:information in 5454) [ClassicSimilarity], result of:
          0.026117044 = score(doc=5454,freq=10.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.43369597 = fieldWeight in 5454, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=5454)
        0.053169318 = weight(_text_:system in 5454) [ClassicSimilarity], result of:
          0.053169318 = score(doc=5454,freq=4.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.49211764 = fieldWeight in 5454, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.078125 = fieldNorm(doc=5454)
      0.25 = coord(3/12)
    
    Footnote
    Rez. in: Information world review. 1999, no.146, S.26 (D. Parr)
    LCSH
    World Wide Web (Information retrieval system)
    Information retrieval
    Subject
    World Wide Web (Information retrieval system)
    Information retrieval
  16. Hähle, S.: Verborgenes Entdecken (2005) 0.03
    0.034055237 = product of:
      0.10216571 = sum of:
        0.031912316 = weight(_text_:web in 34) [ClassicSimilarity], result of:
          0.031912316 = score(doc=34,freq=20.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.2850559 = fieldWeight in 34, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
        0.0029199743 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0029199743 = score(doc=34,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
        0.05793432 = weight(_text_:suche in 34) [ClassicSimilarity], result of:
          0.05793432 = score(doc=34,freq=12.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.33803108 = fieldWeight in 34, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
        0.009399096 = weight(_text_:system in 34) [ClassicSimilarity], result of:
          0.009399096 = score(doc=34,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.08699492 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.33333334 = coord(4/12)
    
    Abstract
    Die interessantesten Infos im Web herauszufiltern, ist gar nicht so einfach. Doch mit den folgenden Tipps entdecken Sie vielleicht sogar das eine oder andere Geheimnis.
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
    In anderen Ländern suchen Die Yahoo-Suche (http://suche.yahoo.de) verfügt über eine Möglichkeit, fremdsprachige Websites ohne Kenntnisse der Fremdsprache zu durchsuchen. Wenn die Option "Suche Translator" aktiviert ist, übersetzt Yahoo deutsche Suchbegriffe automatisch ins Englische und Französische, um die Suche mit den fremdsprachigen Begriffen zu erweitern. Anschließend zeigt es alle Ergebnisse in deutscher Sprache an. Übersetzte Seiten sind mit einem Globus gekennzeichnet. Lesezeichen online ordnen Ein praktisches Tool, um gesammelte Informationen im Web zu organisieren, ist Yahoo Mein Web. Dabei handelt es sich um eine kostenlose Online-Lesezeichenverwaltung, die mit allen aktuellen Browsern funktioniert. Ergebnisse der Yahoo-Suche können in Ordnern abgelegt und mit privaten Notizen versehen werden. Der Zugang zu den Bookmarks ist über die Yahoo-ID und das zugehörige Passwort geschützt. Da der Dienst Kopien der gemerkten Webseiten anlegt, sind diese auch dann erreichbar, wenn sie nicht mehr im Web existieren. Über eine Volltextsuche lassen sich alle Ordner durchsuchen. Mein Web finden Sie unter der Webadresse: http://meinweb.yahoo.de. MP3s im Web finden Musikdateien gibt's nicht nur in Internet-Tauschbörsen. Ganz legal kann man Sie bei Webdiensten wie AOL Musik Downloads (http://mu sikdownloads.aol.de), Apple iTunes (www. appie.com/de/itunes) oder T-Online Musicload (www.musicload.de) herunterladen -allerdings nicht kostenlos. Insider nutzen noch eine andere Variante: Wenn Anwender ihre MP3s online-Sicherheitsvorkehrungen im Web ablegen, schlagen sie zu. Mit Google lassen sich die Musikdateien sehr schnell aufspüren. Dazu geben die Experten "index of /mp3" ins Suchfeld ein. Die Suchanfrage lässt sich um Künstler, Liedtitel oder Album ergänzen, um noch bessere Ergebnisse zu erzielen. Bedenken Sie dabei, dass es verboten ist, urheberrechtlich geschütztes Material aus dem Internet herunterzuladen!
    Private Bilder aufspüren Wo ungeschützte Musikverzeichnisse liegen, gibt es auch Bildarchive, auf die eigentlich niemand zugreifen soll. Doch Google hilft dabei. Wer beispielsweise "index of /images/girls" eingibt, findet so manche Privatsachen. Die Kombination von "index of /images/" mit anderen Begriffen fördert noch mehr geheime Bilder zu Tage. Zwar bietet heute fast jede Suchmaschine eine Bildersuche an, doch es gibt eine, die sehr schnell ist und besonders viele Ergebnisse liefert: www.alltheweb.com. Über "customize preferences" auf der Startseite können Sie den "Offensive content filter" abschalten, um noch mehr Suchergebnisse zu erhalten. Gesperrte Seiten anzeigen Die Betreiber von Websites können Suchmaschinen dazu bringen, bestimmte Seiten ganz einfach von der Indizierung auszunehmen. In der Datei "robots.txt", die zu jeder Website gehört, steht dann "Disallow:", gefolgt von der Seite, die nicht gefunden werden soll. Mit der Suchanfrage robots ext:txt suchen Profis nach "robots.txt"-Dateien. Dann kopieren sie die Webadressen gesperrter Webseiten ("Strg + C"), um sie in die Adresszeile des Browsers einzufügen ("Strg + V"). Und schon erscheint die Webseite, die niemand finden soll. Geheimnisse entdecken Wer Word- und Excel-Dokumente (".doc", ".xls") oder PowerPoint-Präsentationen (".ppt") ungeschützt ins Internet legt, der ermöglicht jedermann den Diebstahl der Daten. Dass dieser mit Google ganz einfach ist, überrascht dennoch. So genügen Eingaben wie ext:doc vertraulich ext:ppt confidential [Suchbegriff] ext:xls umsatz um interessante Firmendokumente aufzuspüren, die nicht für die Öffentlichkeit bestimmt sind. Suchen ohne Suchmaschinen Nicht immer sind Suchmaschinen die beste Möglichkeit, um Informationen im Web aufzuspüren. Suchen Sie etwa eine Begriffserklärung, ist es sinnvoll, erst einmal in einem Online-Lexikon wie Wikipedia (www.wikipedia.de) nachzuschlagen oder bei www.wissen.de nachzusehen. Wollen Sie wissen, ob ein Zug oder ein Flug pünktlich ankommt, weil Sie jemanden abholen müssen, sehen Sie unter http://reiseauskunft.bahn.de/bin/bhftafel.exe/ dn? oder www.flugplandaten.de nach. Übrigens: Eine gepflegte Link-Sammlung ist meistens besser, als ständig aufs Neue zu suchen. Und oftmals genügt es, einen Begriff als Webadresse auszuprobieren, um an die gewünschten Informationen zu kommen, etwa: www.fahrplanauskunft.de, www.nachrichten.de oder www.sport.de."
    Series
    Online: Geheime Web-Tricks
  17. Carrière, S.J.; Kazman, R.: Webquery : searching and visualising the Web through connectivity (1997) 0.03
    0.03352289 = product of:
      0.10056866 = sum of:
        0.054157 = weight(_text_:web in 2674) [ClassicSimilarity], result of:
          0.054157 = score(doc=2674,freq=10.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.48375595 = fieldWeight in 2674, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2674)
        0.009910721 = weight(_text_:information in 2674) [ClassicSimilarity], result of:
          0.009910721 = score(doc=2674,freq=4.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.16457605 = fieldWeight in 2674, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2674)
        0.02255783 = weight(_text_:system in 2674) [ClassicSimilarity], result of:
          0.02255783 = score(doc=2674,freq=2.0), product of:
            0.10804188 = queryWeight, product of:
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.03430388 = queryNorm
            0.20878783 = fieldWeight in 2674, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1495528 = idf(docFreq=5152, maxDocs=44218)
              0.046875 = fieldNorm(doc=2674)
        0.013943106 = product of:
          0.027886212 = sum of:
            0.027886212 = weight(_text_:22 in 2674) [ClassicSimilarity], result of:
              0.027886212 = score(doc=2674,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.23214069 = fieldWeight in 2674, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2674)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    The WebQuery system offers a powerful new method for searching the Web based on connectivity and content. Examines links among the nodes returned in a keyword-based query. Rankes the nodes, giving the highest rank to the most highly connected nodes. By doing so, finds hot spots on the Web that contain information germane to a user's query. WebQuery not only ranks and filters the results of a Web query; it also extends the result set beyond what the search engine retrieves, by finding interesting sites that are highly connected to those sites returned by the original query. Even with WebQuery filering and ranking query results, the result set can be enormous. Explores techniques for visualizing the returned information and discusses the criteria for using each of the technique
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue of papers from the 6th International World Wide Web conference, held 7-11 Apr 1997, Santa Clara, California
  18. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.03
    0.033048525 = product of:
      0.09914558 = sum of:
        0.028543243 = weight(_text_:web in 3423) [ClassicSimilarity], result of:
          0.028543243 = score(doc=3423,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.25496176 = fieldWeight in 3423, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.011679897 = weight(_text_:information in 3423) [ClassicSimilarity], result of:
          0.011679897 = score(doc=3423,freq=8.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.19395474 = fieldWeight in 3423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.047303177 = weight(_text_:suche in 3423) [ClassicSimilarity], result of:
          0.047303177 = score(doc=3423,freq=2.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.27600124 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.011619256 = product of:
          0.023238512 = sum of:
            0.023238512 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.023238512 = score(doc=3423,freq=2.0), product of:
                0.120126344 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03430388 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.189-190
  19. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.03
    0.032674547 = product of:
      0.13069819 = sum of:
        0.045669187 = weight(_text_:web in 343) [ClassicSimilarity], result of:
          0.045669187 = score(doc=343,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.4079388 = fieldWeight in 343, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.009343918 = weight(_text_:information in 343) [ClassicSimilarity], result of:
          0.009343918 = score(doc=343,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.1551638 = fieldWeight in 343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
        0.075685084 = weight(_text_:suche in 343) [ClassicSimilarity], result of:
          0.075685084 = score(doc=343,freq=2.0), product of:
            0.17138755 = queryWeight, product of:
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.03430388 = queryNorm
            0.441602 = fieldWeight in 343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.996156 = idf(docFreq=812, maxDocs=44218)
              0.0625 = fieldNorm(doc=343)
      0.25 = coord(3/12)
    
    Abstract
    Folksonomies ermöglichen den Nutzern in Kollaborativen Informationsdiensten den Zugang zu verschiedenartigen Informationsressourcen. In welchen Fällen beide Bestandteile des Web 2.0 am besten für das Information Retrieval geeignet sind und wo sie die Websuche ggf. ersetzen können, wird in diesem Beitrag diskutiert. Dazu erfolgt eine detaillierte Betrachtung der Reichweite von Social-Bookmarking-Systemen und Sharing-Systemen sowie der Retrievaleffektivität von Folksonomies innerhalb von Kollaborativen Informationsdiensten.
    Source
    Handbuch Internet-Suchmaschinen, 2: Neue Entwicklungen in der Web-Suche. Hrsg.: D. Lewandowski
  20. Sleem-Amer, M.; Bigorgne, I.; Brizard, S.; Santos, L.D.P.D.; Bouhairi, Y. El; Goujon, B.; Lorin, S.; Martineau, C.; Rigouste, L.; Varga, L.: Intelligent semantic search engines for opinion and sentiment mining (2012) 0.03
    0.032244842 = product of:
      0.12897937 = sum of:
        0.028543243 = weight(_text_:web in 100) [ClassicSimilarity], result of:
          0.028543243 = score(doc=100,freq=4.0), product of:
            0.111951075 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03430388 = queryNorm
            0.25496176 = fieldWeight in 100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=100)
        0.0058399485 = weight(_text_:information in 100) [ClassicSimilarity], result of:
          0.0058399485 = score(doc=100,freq=2.0), product of:
            0.060219705 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03430388 = queryNorm
            0.09697737 = fieldWeight in 100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=100)
        0.09459618 = weight(_text_:extraction in 100) [ClassicSimilarity], result of:
          0.09459618 = score(doc=100,freq=4.0), product of:
            0.20380433 = queryWeight, product of:
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.03430388 = queryNorm
            0.46415195 = fieldWeight in 100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.941145 = idf(docFreq=315, maxDocs=44218)
              0.0390625 = fieldNorm(doc=100)
      0.25 = coord(3/12)
    
    Abstract
    Over the last years, research and industry players have become increasingly interested in analyzing opinions and sentiments expressed on the social media web for product marketing and business intelligence. In order to adapt to this need search engines not only have to be able to retrieve lists of documents but to directly access, analyze, and interpret topics and opinions. This article covers an intermediate phase of the ongoing industrial research project 'DoXa' aiming at developing a semantic opinion and sentiment mining search engine for the French language. The DoXa search engine enables topic related opinion and sentiment extraction beyond positive and negative polarity using rich linguistic resources. Centering the work on two distinct business use cases, the authors analyze both unstructured Web 2.0 contents (e.g., blogs and forums) and structured questionnaire data sets. The focus is on discovering hidden patterns in the data. To this end, the authors present work in progress on opinion topic relation extraction and visual analytics, linguistic resource construction as well as the combination of OLAP technology with semantic search.
    Source
    Next generation search engines: advanced models for information retrieval. Eds.: C. Jouis, u.a

Years

Languages

Types

  • a 798
  • el 83
  • m 62
  • s 14
  • x 14
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications