Search (707 results, page 1 of 36)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.60
    0.60108984 = product of:
      1.0018164 = sum of:
        0.053863343 = product of:
          0.16159002 = sum of:
            0.16159002 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16159002 = score(doc=2514,freq=2.0), product of:
                0.28751752 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03391332 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.033861924 = weight(_text_:web in 2514) [ClassicSimilarity], result of:
          0.033861924 = score(doc=2514,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3059541 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.2285228 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.2285228 = score(doc=2514,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.2285228 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.2285228 = score(doc=2514,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.2285228 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.2285228 = score(doc=2514,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.2285228 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.2285228 = score(doc=2514,freq=4.0), product of:
            0.28751752 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03391332 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.6 = coord(6/10)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
    Source
    WWW '02: Proceedings of the 11th International Conference on World Wide Web, May 7-11, 2002, Honolulu, Hawaii, USA
  2. Höfer, W.: Detektive im Web (1999) 0.06
    0.056620035 = product of:
      0.18873344 = sum of:
        0.04788799 = weight(_text_:web in 4007) [ClassicSimilarity], result of:
          0.04788799 = score(doc=4007,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.43268442 = fieldWeight in 4007, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=4007)
        0.101857394 = weight(_text_:daten in 4007) [ClassicSimilarity], result of:
          0.101857394 = score(doc=4007,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.63103616 = fieldWeight in 4007, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.09375 = fieldNorm(doc=4007)
        0.038988065 = product of:
          0.07797613 = sum of:
            0.07797613 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.07797613 = score(doc=4007,freq=4.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Abstract
    Ohne Altavista, Excite & Co. wären Internet-Surfer aufgeschmissen. Wie die Daten-Spürhunde arbeiten, wie Sie ihre Website anmelden und welche Tools helfen, steht in diesem Suchmaschinen-Special
    Date
    22. 8.1999 20:22:06
  3. Liu, Y.; Zhang, M.; Cen, R.; Ru, L.; Ma, S.: Data cleansing for Web information retrieval using query independent features (2007) 0.03
    0.026868755 = product of:
      0.13434377 = sum of:
        0.07727892 = weight(_text_:web in 607) [ClassicSimilarity], result of:
          0.07727892 = score(doc=607,freq=30.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.69824153 = fieldWeight in 607, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=607)
        0.05706485 = product of:
          0.1141297 = sum of:
            0.1141297 = weight(_text_:hyperlink in 607) [ClassicSimilarity], result of:
              0.1141297 = score(doc=607,freq=2.0), product of:
                0.26469576 = queryWeight, product of:
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.03391332 = queryNorm
                0.43117312 = fieldWeight in 607, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=607)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Understanding what kinds of Web pages are the most useful for Web search engine users is a critical task in Web information retrieval (IR). Most previous works used hyperlink analysis algorithms to solve this problem. However, little research has been focused on query-independent Web data cleansing for Web IR. In this paper, we first provide analysis of the differences between retrieval target pages and ordinary ones based on more than 30 million Web pages obtained from both the Text Retrieval Conference (TREC) and a widely used Chinese search engine, SOGOU (www.sogou.com). We further propose a learning-based data cleansing algorithm for reducing Web pages that are unlikely to be useful for user requests. We found that there exists a large proportion of low-quality Web pages in both the English and the Chinese Web page corpus, and retrieval target pages can be identified using query-independent features and cleansing algorithms. The experimental results showed that our algorithm is effective in reducing a large portion of Web pages with a small loss in retrieval target pages. It makes it possible for Web IR tools to meet a large fraction of users' needs with only a small part of pages on the Web. These results may help Web search engines make better use of their limited storage and computation resources to improve search performance.
    Footnote
    Beitrag eines Themenschwerpunktes "Mining Web resources for enhancing information retrieval"
  4. Web search engine research (2012) 0.03
    0.026779732 = product of:
      0.13389866 = sum of:
        0.058650576 = weight(_text_:web in 478) [ClassicSimilarity], result of:
          0.058650576 = score(doc=478,freq=12.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.5299281 = fieldWeight in 478, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=478)
        0.075248085 = weight(_text_:forschung in 478) [ClassicSimilarity], result of:
          0.075248085 = score(doc=478,freq=4.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.45608753 = fieldWeight in 478, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=478)
      0.2 = coord(2/10)
    
    Abstract
    "Web Search Engine Research", edited by Dirk Lewandowski, provides an understanding of Web search engines from the unique perspective of Library and Information Science. The book explores a range of topics including retrieval effectiveness, user satisfaction, the evaluation of search interfaces, the impact of search on society, reliability of search results, query log analysis, user guidance in the search process, and the influence of search engine optimization (SEO) on results quality. While research in computer science has mainly focused on technical aspects of search engines, LIS research is centred on users' behaviour when using search engines and how this interaction can be evaluated. LIS research provides a unique perspective in intermediating between the technical aspects, user aspects and their impact on their role in knowledge acquisition. This book is directly relevant to researchers and practitioners in library and information science, computer science, including Web researchers.
    LCSH
    Web search engines
    RSWK
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Subject
    Internet / Suchmaschine / Forschung / Aufsatzsammlung
    Web search engines
  5. Suchmaschine für Forschung und Wissenschaft offiziell gestartet (2005) 0.03
    0.025235355 = product of:
      0.12617677 = sum of:
        0.075248085 = weight(_text_:forschung in 5741) [ClassicSimilarity], result of:
          0.075248085 = score(doc=5741,freq=4.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.45608753 = fieldWeight in 5741, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
        0.050928697 = weight(_text_:daten in 5741) [ClassicSimilarity], result of:
          0.050928697 = score(doc=5741,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.31551808 = fieldWeight in 5741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=5741)
      0.2 = coord(2/10)
    
    Content
    "Mit einer Pressemeldung wies das BMBF im Juni 2005 auf das im Suchmaschinenlabor des Regionalen Rechenzentrums für Niedersachsen an der Universität Hannover von Wolfgang Sander-Beuermann und Kollegen entwickelte ForschungsPortal.Net hin, das im neuen Design erscheint. Das Internetportal soll Wissenschaftlerinnen und Wissenschaftlern den Zugang zu Daten und Literatur im Internet erleichtert. Die Suchmaschine www.forschungsportal.net hat ausschließlich wissenschaftliche Publikationen und Forschungsförderungen im Visier. Sie durchforstet zwölf Millionen Webseiten von 27.000 Webservern aller Forschungseinrichtungen und Institutionen nach Forschungsthemen. Das Bundesministerium für Bildung und Forschung (BMBF) hat das Vier-Jahres-Projekt mit über 600.000 Euro gefördert. Zusätzlich wertet die Suchmaschine die Internetbeiträge zu allen BMBF-Förderschwerpunkten aus, einschließlich dervom BMBF geförderten Vorhaben der Wirtschaft. Um gleichzeitig den Kontakt zwischen Wissenschaftlerinnen und Wissenschaftlern zu verbessern, können gezielt Ansprechpartner für Fachfragen herausgesucht werden. Ebenfalls neu und exklusiv ist die "Dissertationssuche" nach allen bei der Deutschen Bibliothek hinterlegten Dissertationen. ForschungsPortal.Net ist Partner von vascoda, kann aber vorerst noch nicht eingebunden werden, weil die Informationen aus dem Portal für vascoda nach Fachgebieten geordnet werden müssten, was bisher noch nicht möglich ist."
  6. Zurawski, A.: Fit fürs Netz : alles über Suchmaschinen (1997) 0.02
    0.022610832 = product of:
      0.11305416 = sum of:
        0.045149233 = weight(_text_:web in 7624) [ClassicSimilarity], result of:
          0.045149233 = score(doc=7624,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.4079388 = fieldWeight in 7624, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=7624)
        0.06790493 = weight(_text_:daten in 7624) [ClassicSimilarity], result of:
          0.06790493 = score(doc=7624,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.42069077 = fieldWeight in 7624, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=7624)
      0.2 = coord(2/10)
    
    Abstract
    Neben Web-Browsern sind Suchmaschinen die wichtigsten Tools fürs Internet. Ohne sie würden Anbieter von Daten und Surfer oft nur durch Zufall oder Glück zueinander finden. CHIP stellt im zweiten Teil der neuen Serie die 7 wichtigsten Suchdienste (AltaVista, Yahoo, Lycos, Kitty (Flipper), WebCrawler, Web.De, Excite) vor und zeigt, mit welchen Tricks Sie schneller auf der gesuchten Web-Seite landen
  7. Haveliwala, T.; Kamvar, S.: ¬The second eigenvalue of the Google matrix (2003) 0.02
    0.021990007 = product of:
      0.109950036 = sum of:
        0.04147222 = weight(_text_:web in 2566) [ClassicSimilarity], result of:
          0.04147222 = score(doc=2566,freq=6.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.37471575 = fieldWeight in 2566, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2566)
        0.06847782 = product of:
          0.13695563 = sum of:
            0.13695563 = weight(_text_:hyperlink in 2566) [ClassicSimilarity], result of:
              0.13695563 = score(doc=2566,freq=2.0), product of:
                0.26469576 = queryWeight, product of:
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.03391332 = queryNorm
                0.5174077 = fieldWeight in 2566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2566)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    We determine analytically the modulus of the second eigenvalue for the web hyperlink matrix used by Google for computing PageRank. Specifically, we prove the following statement: "For any matrix A=(cP + (1-c)E)**T, where P is an nxn row-stochasticmatrix, E is a nonnegative nxn rank-one row-stochastic matrix, and 0<=c<=1, the second eigenvalue of A has modulus Betrag (Lambda_sub2)<=c. Furthermore, if P has at least two irreducible closed subsets, the second eigenvalue Lambda_sub2 = c." This statement has implications for the convergence rate of the standard PageRank algorithm as the web scales, for the stability of PageRank to perturbations to the link structure of the web, for the detection of Google spammers, and for the design of algorithms to speed up PageRank.
  8. Brin, S.; Page, L.: ¬The anatomy of a large-scale hypertextual Web search engine (1998) 0.02
    0.02197128 = product of:
      0.1098564 = sum of:
        0.05279155 = weight(_text_:web in 947) [ClassicSimilarity], result of:
          0.05279155 = score(doc=947,freq=14.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.47698978 = fieldWeight in 947, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=947)
        0.05706485 = product of:
          0.1141297 = sum of:
            0.1141297 = weight(_text_:hyperlink in 947) [ClassicSimilarity], result of:
              0.1141297 = score(doc=947,freq=2.0), product of:
                0.26469576 = queryWeight, product of:
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.03391332 = queryNorm
                0.43117312 = fieldWeight in 947, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=947)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    In this paper, we present Google, a prototype of a large-scale search engine which makes heavy use of the structure present in hypertext. Google is designed to crawl and index the Web efficiently and produce much more satisfying search results than existing systems. The prototype with a full text and hyperlink database of at least 24 million pages is available at http://google.stanford.edu/. To engineer a search engine is a challenging task. Search engines index tens to hundreds of millions of web pages involving a comparable number of distinct terms. They answer tens of millions of queries every day. Despite the importance of large-scale search engines on the web, very little academic research has been done on them. Furthermore, due to rapid advance in technology and web proliferation, creating a web search engine today is very different from three years ago. This paper provides an in-depth description of our large-scale web search engine -- the first such detailed public description we know of to date. Apart from the problems of scaling traditional search techniques to data of this magnitude, there are new technical challenges involved with using the additional information present in hypertext to produce better search results. This paper addresses this question of how to build a practical large-scale system which can exploit the additional information present in hypertext. Also we look at the problem of how to effectively deal with uncontrolled hypertext collections where anyone can publish anything they want
  9. Breyer, K.: Kommerz statt Information (2002) 0.02
    0.02157102 = product of:
      0.1078551 = sum of:
        0.08488116 = weight(_text_:daten in 568) [ClassicSimilarity], result of:
          0.08488116 = score(doc=568,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.52586347 = fieldWeight in 568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.078125 = fieldNorm(doc=568)
        0.022973936 = product of:
          0.045947872 = sum of:
            0.045947872 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
              0.045947872 = score(doc=568,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.38690117 = fieldWeight in 568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=568)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
    Date
    9. 5.2002 21:21:22
  10. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.02
    0.021177197 = product of:
      0.10588598 = sum of:
        0.033861924 = weight(_text_:web in 5026) [ClassicSimilarity], result of:
          0.033861924 = score(doc=5026,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.3059541 = fieldWeight in 5026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
        0.072024055 = weight(_text_:daten in 5026) [ClassicSimilarity], result of:
          0.072024055 = score(doc=5026,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 5026, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
      0.2 = coord(2/10)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
  11. Lewandowski, D.: Web Information Retrieval (2005) 0.02
    0.020734608 = product of:
      0.10367304 = sum of:
        0.04223324 = weight(_text_:web in 4028) [ClassicSimilarity], result of:
          0.04223324 = score(doc=4028,freq=14.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.38159183 = fieldWeight in 4028, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.061439805 = weight(_text_:forschung in 4028) [ClassicSimilarity], result of:
          0.061439805 = score(doc=4028,freq=6.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.3723939 = fieldWeight in 4028, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.2 = coord(2/10)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
  12. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.02
    0.020219285 = product of:
      0.10109642 = sum of:
        0.04788799 = weight(_text_:web in 389) [ClassicSimilarity], result of:
          0.04788799 = score(doc=389,freq=8.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.43268442 = fieldWeight in 389, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
        0.05320843 = weight(_text_:forschung in 389) [ClassicSimilarity], result of:
          0.05320843 = score(doc=389,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.32250258 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
      0.2 = coord(2/10)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
  13. Behrens, D.: Websites wiederfinden : So kommen Sie an die Daten unerreichbarer Webserver (2003) 0.02
    0.019966051 = product of:
      0.099830255 = sum of:
        0.031925328 = weight(_text_:web in 1347) [ClassicSimilarity], result of:
          0.031925328 = score(doc=1347,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.2884563 = fieldWeight in 1347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=1347)
        0.06790493 = weight(_text_:daten in 1347) [ClassicSimilarity], result of:
          0.06790493 = score(doc=1347,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.42069077 = fieldWeight in 1347, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0625 = fieldNorm(doc=1347)
      0.2 = coord(2/10)
    
    Abstract
    Das Web ist schnelllebig: Informationen, die heute noch vorhanden sind, können morgen schon unzugänglich sein. Mit unseren Tipps kommen Sie aber dennoch an die verschwundenen Infos. Eine Vorstelung und Zusammenstellung von Internet-Archiven und anderen Techniken über die Funktionen der Browser und Suchmaschinen, unzugängliche Seiten aufzurufen
  14. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.02
    0.019394303 = product of:
      0.09697151 = sum of:
        0.039906662 = weight(_text_:web in 4) [ClassicSimilarity], result of:
          0.039906662 = score(doc=4,freq=8.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.36057037 = fieldWeight in 4, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.05706485 = product of:
          0.1141297 = sum of:
            0.1141297 = weight(_text_:hyperlink in 4) [ClassicSimilarity], result of:
              0.1141297 = score(doc=4,freq=2.0), product of:
                0.26469576 = queryWeight, product of:
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.03391332 = queryNorm
                0.43117312 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.805067 = idf(docFreq=48, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Kleinberg's HITS (Hyperlink-Induced Topic Search) algorithm (Kleinberg 1999), which was originally developed in a Web context, tries to infer the authoritativeness of a Web page in relation to a specific query using the structure of a subgraph of the Web graph, which is obtained considering this specific query. Recent applications of this algorithm in contexts far removed from that of Web searching (Bacchin, Ferro and Melucci 2002, Ng et al. 2001) inspired us to study the algorithm in the abstract, independently of its particular applications, trying to mathematically illuminate its behaviour. In the present paper we detail this theoretical analysis. The original work starts from the definition of a revised and more general version of the algorithm, which includes the classic one as a particular case. We perform an analysis of the structure of two particular matrices, essential to studying the behaviour of the algorithm, and we prove the convergence of the algorithm in the most general case, finding the analytic expression of the vectors to which it converges. Then we study the symmetry of the algorithm and prove the equivalence between the existence of symmetry and the independence from the order of execution of some basic operations on initial vectors. Finally, we expound some interesting consequences of our theoretical results.
  15. Burckhardt, D.: Historische Rezensionen online : Eine thematische Suchmaschine von Clio-online (2007) 0.02
    0.01919361 = product of:
      0.09596805 = sum of:
        0.023943994 = weight(_text_:web in 292) [ClassicSimilarity], result of:
          0.023943994 = score(doc=292,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.21634221 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
        0.072024055 = weight(_text_:daten in 292) [ClassicSimilarity], result of:
          0.072024055 = score(doc=292,freq=4.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.44620997 = fieldWeight in 292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
      0.2 = coord(2/10)
    
    Abstract
    Historische Rezensionen online (HR O) ist eine auf geschichtswissenschaftliche Rezensionen fokussierte Suchmaschine. Sie berücksichtigt ausschließlich fachwissenschaftliche Besprechungen, die im Web veröffentlicht wurden und ohne Zugangsbeschränkungen im Volltext zur Verfügung stehen. Eingebunden in das Portal des DFG-geförderten Kooperationsprojektes Clio-online sind über eine einfache Suchmaske gegenwärtig mehr als 35.000 Rezensionen zu über 30.000 Publikationen im Volltext recherchierbar. Statt unter hohem Aufwand Daten zu erstellen oder manuell zu katalogisieren, werden bei HRO bereits vorhandene Texte und bibliografische Daten voll automatisiert gesammelt, verknüpft und in einem zentralen Suchindex aufbereitet. Die Spezialisierung auf eine Textsorte und die Anreicherung der Rezensionstexte mit den in der Verbunddatenbank des GBV bereits erfassten bibliografischen Informationen erlauben zudem zielgerichtete Anfragen nach bestimmten Autoren oder eingeschränkt auf einzelne Themenbereiche, ein Mehrwert für die Nutzerinnen und Nutzer von HRO gegenüber kommerziellen Suchmaschinen.
  16. Berinstein, P.: Turning visual : image search engines on the Web (1998) 0.02
    0.017953271 = product of:
      0.08976635 = sum of:
        0.07138721 = weight(_text_:web in 3595) [ClassicSimilarity], result of:
          0.07138721 = score(doc=3595,freq=10.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.6450079 = fieldWeight in 3595, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=3595)
        0.018379148 = product of:
          0.036758296 = sum of:
            0.036758296 = weight(_text_:22 in 3595) [ClassicSimilarity], result of:
              0.036758296 = score(doc=3595,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.30952093 = fieldWeight in 3595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3595)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Abstract
    Gives an overview of image search engines on the Web. They work by: looking for graphics files; looking for a caption; looking for Web sites whose titles indicate the presence of picturres on a certain subject; or employing human intervention. Describes the image search capabilities of: AltaVista; Amazing Picture Machine (Http://www.ncrtec.org/picture.htm); HotBot; ImageSurfer (http://ipix.yahoo.com); Lycos; Web Clip Art Search Engine and WebSEEK. The search engines employing human intervention provide the best results
    Object
    Web Clip Art Search Engine
    Source
    Online. 22(1998) no.3, S.37-38,40-42
  17. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.02
    0.017864743 = product of:
      0.089323714 = sum of:
        0.07094457 = weight(_text_:forschung in 1770) [ClassicSimilarity], result of:
          0.07094457 = score(doc=1770,freq=2.0), product of:
            0.16498606 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.03391332 = queryNorm
            0.43000343 = fieldWeight in 1770, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
        0.018379148 = product of:
          0.036758296 = sum of:
            0.036758296 = weight(_text_:22 in 1770) [ClassicSimilarity], result of:
              0.036758296 = score(doc=1770,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.30952093 = fieldWeight in 1770, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1770)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Date
    22. 3.2008 14:04:11
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  18. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.02
    0.017606568 = product of:
      0.088032834 = sum of:
        0.055869326 = weight(_text_:web in 3175) [ClassicSimilarity], result of:
          0.055869326 = score(doc=3175,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.50479853 = fieldWeight in 3175, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.109375 = fieldNorm(doc=3175)
        0.03216351 = product of:
          0.06432702 = sum of:
            0.06432702 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.06432702 = score(doc=3175,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
      0.2 = coord(2/10)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  19. Pieper, D.; Wolf, S.: BASE - Eine Suchmaschine für OAI-Quellen und wissenschaftliche Webseiten (2007) 0.02
    0.017470295 = product of:
      0.08735147 = sum of:
        0.027934663 = weight(_text_:web in 294) [ClassicSimilarity], result of:
          0.027934663 = score(doc=294,freq=2.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.25239927 = fieldWeight in 294, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=294)
        0.059416812 = weight(_text_:daten in 294) [ClassicSimilarity], result of:
          0.059416812 = score(doc=294,freq=2.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.36810443 = fieldWeight in 294, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.0546875 = fieldNorm(doc=294)
      0.2 = coord(2/10)
    
    Abstract
    Dieser Aufsatz beschreibt die Entwicklung der Suchmaschine BASE (Bielefeld Academic Search Engine) seit 2005. In dieser Zeit wurde der Index um ein Vielfaches ausgebaut und auch die Nutzungszahlen stiegen deutlich. Der Schwerpunkt liegt auf der Indexierung von Dokumentenservern, die ihre Daten über das "Protocol for Metadata Harvesting" (OAI-PMH) bereitstellen. Im Gegensatz zu speziellen OAI-Suchmaschine wie OAIster verfügt BASE jedoch über weitergehende Suchmöglichkeiten und indexiert auch wissenschaftliche Webseiten mit Hilfe eines integrierten Web-Crawlers und andere Quellen, wie zum Beispiel den Bibliothekskatalog der Universitätsbibliothek Bielefeld. BASE kommt darüber hinaus als Suchsystem auch in anderen Bereichen, zum Beispiel im Bielefeld eScholarship Repository, als Suchmaschine der Universität Bielefeld und im EU-Projekt DRIVER via Schnittstellen zum BASE-Index zum Einsatz.
  20. Behrens, D.: Test: Datei-Newsserver (2004) 0.02
    0.016982174 = product of:
      0.056607243 = sum of:
        0.014109136 = weight(_text_:web in 2139) [ClassicSimilarity], result of:
          0.014109136 = score(doc=2139,freq=4.0), product of:
            0.11067648 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03391332 = queryNorm
            0.12748088 = fieldWeight in 2139, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2139)
        0.036754623 = weight(_text_:daten in 2139) [ClassicSimilarity], result of:
          0.036754623 = score(doc=2139,freq=6.0), product of:
            0.16141292 = queryWeight, product of:
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.03391332 = queryNorm
            0.22770557 = fieldWeight in 2139, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.759573 = idf(docFreq=1029, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2139)
        0.005743484 = product of:
          0.011486968 = sum of:
            0.011486968 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
              0.011486968 = score(doc=2139,freq=2.0), product of:
                0.11875868 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03391332 = queryNorm
                0.09672529 = fieldWeight in 2139, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2139)
          0.5 = coord(1/2)
      0.3 = coord(3/10)
    
    Content
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."

Years

Languages

  • e 407
  • d 289
  • f 4
  • nl 4
  • ja 1
  • sp 1
  • More… Less…

Types

  • a 604
  • el 64
  • m 49
  • x 11
  • s 9
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications