Search (171 results, page 1 of 9)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.19
    0.18688972 = product of:
      0.37377945 = sum of:
        0.07129603 = product of:
          0.21388808 = sum of:
            0.21388808 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.21388808 = score(doc=2514,freq=2.0), product of:
                0.38057154 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04488925 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.3024834 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.3024834 = score(doc=2514,freq=4.0), product of:
            0.38057154 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04488925 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Sandler, M.: Disruptive beneficence : the Google Print program and the future of libraries (2005) 0.05
    0.04915068 = product of:
      0.09830136 = sum of:
        0.073973864 = weight(_text_:communication in 208) [ClassicSimilarity], result of:
          0.073973864 = score(doc=208,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.3816502 = fieldWeight in 208, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0625 = fieldNorm(doc=208)
        0.024327492 = product of:
          0.048654985 = sum of:
            0.048654985 = weight(_text_:22 in 208) [ClassicSimilarity], result of:
              0.048654985 = score(doc=208,freq=2.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.30952093 = fieldWeight in 208, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=208)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Libraries must learn to accommodate themselves to Google, and complement its mass digitization efforts with niche digitization of our own. We need to plan for what our activities and services will look like when our primary activity is no longer the storage and circulation of widely-available print materials, and once the printed book is no longer the only major vehicle for scholarly communication.
    Pages
    S.5-22
  3. Alqaraleh, S.; Ramadan, O.; Salamah, M.: Efficient watcher based web crawler design (2015) 0.03
    0.030719174 = product of:
      0.06143835 = sum of:
        0.046233665 = weight(_text_:communication in 1627) [ClassicSimilarity], result of:
          0.046233665 = score(doc=1627,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.23853138 = fieldWeight in 1627, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1627)
        0.015204684 = product of:
          0.030409368 = sum of:
            0.030409368 = weight(_text_:22 in 1627) [ClassicSimilarity], result of:
              0.030409368 = score(doc=1627,freq=2.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.19345059 = fieldWeight in 1627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1627)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Purpose The purpose of this paper is to design a watcher-based crawler (WBC) that has the ability of crawling static and dynamic web sites, and can download only the updated and newly added web pages. Design/methodology/approach In the proposed WBC crawler, a watcher file, which can be uploaded to the web sites servers, prepares a report that contains the addresses of the updated and the newly added web pages. In addition, the WBC is split into five units, where each unit is responsible for performing a specific crawling process. Findings Several experiments have been conducted and it has been observed that the proposed WBC increases the number of uniquely visited static and dynamic web sites as compared with the existing crawling techniques. In addition, the proposed watcher file not only allows the crawlers to visit the updated and newly web pages, but also solves the crawlers overlapping and communication problems. Originality/value The proposed WBC performs all crawling processes in the sense that it detects all updated and newly added pages automatically without any human explicit intervention or downloading the entire web sites.
    Date
    20. 1.2015 18:30:22
  4. Force, R.: Keeping up with Google : Resources and strategies for staying ahead of the pack (2005) 0.02
    0.020818327 = product of:
      0.08327331 = sum of:
        0.08327331 = product of:
          0.16654661 = sum of:
            0.16654661 = weight(_text_:blogs in 352) [ClassicSimilarity], result of:
              0.16654661 = score(doc=352,freq=2.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.5356712 = fieldWeight in 352, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=352)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Librarians need to be the Google experts in their community since it enables librarians to be more competent in educating users. To keep up with the developments of Google the authors reviewed eleven Web sites and blogs and create a strategy for keeping up using these sites. Three are highly recommended for a keeping-up regimen. The authors also suggest that librarians either use search engine alerting services or RSS technology to deliver news feeds into a news aggregator in their keeping-up regimen.
  5. Liu, H.-M.C.: Selection and comparison of WWW search tools (1996) 0.02
    0.018493466 = product of:
      0.073973864 = sum of:
        0.073973864 = weight(_text_:communication in 617) [ClassicSimilarity], result of:
          0.073973864 = score(doc=617,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.3816502 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0625 = fieldNorm(doc=617)
      0.25 = coord(1/4)
    
    Source
    Journal of information; communication; and library science. 2(1996) no.4, S.41-63
  6. Cronin, B.; Snyder, H.W.; Rosembaum, H.; Martinson, A.; Callahan, E.: Invoked on the Web (1998) 0.02
    0.018493466 = product of:
      0.073973864 = sum of:
        0.073973864 = weight(_text_:communication in 2327) [ClassicSimilarity], result of:
          0.073973864 = score(doc=2327,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.3816502 = fieldWeight in 2327, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0625 = fieldNorm(doc=2327)
      0.25 = coord(1/4)
    
    Abstract
    Where, how, and why are scholars invoked on the WWW? An inductively derived typology was used to captue genres of invocation. Comparative data were gathered using five commercial search engines. It is argued that the Web fosters mow modalities of scholarly communication. Different categories of invocation are identified and analyzed in terms of their potential to inform sociometric and bibliometric analyses of academic interaction
  7. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.02
    0.01784428 = product of:
      0.07137712 = sum of:
        0.07137712 = product of:
          0.14275424 = sum of:
            0.14275424 = weight(_text_:blogs in 1475) [ClassicSimilarity], result of:
              0.14275424 = score(doc=1475,freq=8.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.4591467 = fieldWeight in 1475, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1475)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.
  8. Hartknopf, A.: Google statt eBay : Moderne Suchtechnologien (2006) 0.01
    0.014870233 = product of:
      0.05948093 = sum of:
        0.05948093 = product of:
          0.11896186 = sum of:
            0.11896186 = weight(_text_:blogs in 2895) [ClassicSimilarity], result of:
              0.11896186 = score(doc=2895,freq=2.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.38262224 = fieldWeight in 2895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2895)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Google beschreibt sein neues Angebot Base lapidar so: "Ein Platz, an dem Sie ganz einfach alle möglichen Arten von Online-oder Offline-Inhalten hosten lassen und auffindbar machen können." Und so sieht's auf den ersten Blick auch aus: ein bisschen wie die Grabbelkiste auf dem Flohmarkt. Nur lässt sich hier mit System grabbeln. Im Grunde ist Base (base.google.com) eine Datenbank. Sie nimmt einerseits Inhalte auf, die sich sonst nirgends finden, andererseits aber auch Verweise auf vorhandene Webseiten. Auch Bilder lassen sich einstellen. Suchkategorien von Blogs über Rezepte oder Comics bis zum Auto- und Jobmarkt helfen dabei, sich in den bunten Inhalten zu orientieren. So kann der Nutzer die Base "durchblättern" wie einen Katalog. Die meisten Kategorien lassen sich auf durchdachte Weise nochmals einschränken (bei Autos etwa auf Marke oder Farbe, bei Rezepten auf Suppe oder Dessert etc.). Zudem ist die Sortierung nach Relevanz oder Einstelldatum des Artikels wählbar. Das Ganze folgt der bekannten Google-Optik und ist ähnlich wie die Suchmaschine zu handhaben."
  9. Bar-Ilan, J.: Web links and search engine ranking : the case of Google and the query "Jew" (2006) 0.01
    0.014870233 = product of:
      0.05948093 = sum of:
        0.05948093 = product of:
          0.11896186 = sum of:
            0.11896186 = weight(_text_:blogs in 6104) [ClassicSimilarity], result of:
              0.11896186 = score(doc=6104,freq=2.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.38262224 = fieldWeight in 6104, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6104)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    The World Wide Web has become one of our more important information sources, and commercial search engines are the major tools for locating information; however, it is not enough for a Web page to be indexed by the search engines-it also must rank high on relevant queries. One of the parameters involved in ranking is the number and quality of links pointing to the page, based on the assumption that links convey appreciation for a page. This article presents the results of a content analysis of the links to two top pages retrieved by Google for the query "jew" as of July 2004: the "jew" entry on the free online encyclopedia Wikipedia, and the home page of "Jew Watch," a highly anti-Semitic site. The top results for the query "jew" gained public attention in April 2004, when it was noticed that the "Jew Watch" homepage ranked number 1. From this point on, both sides engaged in "Googlebombing" (i.e., increasing the number of links pointing to these pages). The results of the study show that most of the links to these pages come from blogs and discussion links, and the number of links pointing to these pages in appreciation of their content is extremely small. These findings have implications for ranking algorithms based on link counts, and emphasize the huge difference between Web links and citations in the scientific community.
  10. Sleem-Amer, M.; Bigorgne, I.; Brizard, S.; Santos, L.D.P.D.; Bouhairi, Y. El; Goujon, B.; Lorin, S.; Martineau, C.; Rigouste, L.; Varga, L.: Intelligent semantic search engines for opinion and sentiment mining (2012) 0.01
    0.014870233 = product of:
      0.05948093 = sum of:
        0.05948093 = product of:
          0.11896186 = sum of:
            0.11896186 = weight(_text_:blogs in 100) [ClassicSimilarity], result of:
              0.11896186 = score(doc=100,freq=2.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.38262224 = fieldWeight in 100, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=100)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Over the last years, research and industry players have become increasingly interested in analyzing opinions and sentiments expressed on the social media web for product marketing and business intelligence. In order to adapt to this need search engines not only have to be able to retrieve lists of documents but to directly access, analyze, and interpret topics and opinions. This article covers an intermediate phase of the ongoing industrial research project 'DoXa' aiming at developing a semantic opinion and sentiment mining search engine for the French language. The DoXa search engine enables topic related opinion and sentiment extraction beyond positive and negative polarity using rich linguistic resources. Centering the work on two distinct business use cases, the authors analyze both unstructured Web 2.0 contents (e.g., blogs and forums) and structured questionnaire data sets. The focus is on discovering hidden patterns in the data. To this end, the authors present work in progress on opinion topic relation extraction and visual analytics, linguistic resource construction as well as the combination of OLAP technology with semantic search.
  11. El-Ramly, N.; Peterson. R.E.; Volonino, L.: Top ten Web sites using search engines : the case of the desalination industry (1996) 0.01
    0.0138701 = product of:
      0.0554804 = sum of:
        0.0554804 = weight(_text_:communication in 945) [ClassicSimilarity], result of:
          0.0554804 = score(doc=945,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.28623766 = fieldWeight in 945, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.046875 = fieldNorm(doc=945)
      0.25 = coord(1/4)
    
    Abstract
    The desalination industry involves the desalting of sea or brackish water and achieves the purpose of increasing the worls's effective water supply. There are approximately 4.000 desalination Web sites. The six major Internet search engines were used to determine, according to each of the six, the top twenty sites for desalination. Each site was visited and the 120 gross returns were pared down to the final ten - the 'Top Ten'. The Top Ten were then analyzed to determine what it was that made the sites useful and informative. The major attributes were: a) currency (up-to-date); b) search site capability; c) access to articles on desalination; d) newsletters; e) databases; f) product information; g) online conferencing; h) valuable links to other sites; l) communication links; j) site maps; and k) case studies. Reasons for having a Web site and the current status and prospects for Internet commerce are discussed
  12. Bar-Ilan, J.: ¬The use of Web search engines in information science research (2003) 0.01
    0.0138701 = product of:
      0.0554804 = sum of:
        0.0554804 = weight(_text_:communication in 4271) [ClassicSimilarity], result of:
          0.0554804 = score(doc=4271,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.28623766 = fieldWeight in 4271, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.046875 = fieldNorm(doc=4271)
      0.25 = coord(1/4)
    
    Abstract
    The World Wide Web was created in 1989, but it has already become a major information channel and source, influencing our everyday lives, commercial transactions, and scientific communication, to mention just a few areas. The seventeenth-century philosopher Descartes proclaimed, "I think, therefore I am" (cogito, ergo sum). Today the Web is such an integral part of our lives that we could rephrase Descartes' statement as "I have a Web presence, therefore I am." Because many people, companies, and organizations take this notion seriously, in addition to more substantial reasons for publishing information an the Web, the number of Web pages is in the billions and growing constantly. However, it is not sufficient to have a Web presence; tools that enable users to locate Web pages are needed as well. The major tools for discovering and locating information an the Web are search engines. This review discusses the use of Web search engines in information science research. Before going into detail, we should define the terms "information science," "Web search engine," and "use" in the context of this review.
  13. Hjoerland, B.: Domain analysis in information science : eleven approaches - traditional as well as innovative (2002) 0.01
    0.0138701 = product of:
      0.0554804 = sum of:
        0.0554804 = weight(_text_:communication in 4464) [ClassicSimilarity], result of:
          0.0554804 = score(doc=4464,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.28623766 = fieldWeight in 4464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.046875 = fieldNorm(doc=4464)
      0.25 = coord(1/4)
    
    Abstract
    What kind of knowledge is needed by information specialists working in a specific subject field like medicine, sociology or music? What approaches have been used in information science to produce kinds of domain-specific knowledge? This article presents 11 approaches to domain analysis. Together these approaches make a unique competence for information specialists. The approaches are: producing literature guides and subject gateways, producing special classifications and thesauri; research an indexing and retrieving specialities, empirical user studies; bibliometrical studies; historical studies; document and genre studies; epistemological and critical studies; terminological studies, LSP (languages for special purposes), discourse studies; studies of structures and institutions in scientific communication; and domain analysis in professional cognition and artificial intelligence. Specific examples and selective reviews of literature are provided, and the strengths and drawbacks of each of these approaches are discussed
  14. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.01
    0.012901602 = product of:
      0.05160641 = sum of:
        0.05160641 = product of:
          0.10321282 = sum of:
            0.10321282 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.10321282 = score(doc=3227,freq=4.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  15. Höfer, W.: Detektive im Web (1999) 0.01
    0.012901602 = product of:
      0.05160641 = sum of:
        0.05160641 = product of:
          0.10321282 = sum of:
            0.10321282 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.10321282 = score(doc=4007,freq=4.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 20:22:06
  16. Rensman, J.: Blick ins Getriebe (1999) 0.01
    0.012901602 = product of:
      0.05160641 = sum of:
        0.05160641 = product of:
          0.10321282 = sum of:
            0.10321282 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.10321282 = score(doc=4009,freq=4.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 8.1999 21:22:59
  17. Weigert, M.: Horizobu: Webrecherche statt Websuche (2011) 0.01
    0.012617812 = product of:
      0.050471246 = sum of:
        0.050471246 = product of:
          0.10094249 = sum of:
            0.10094249 = weight(_text_:blogs in 4443) [ClassicSimilarity], result of:
              0.10094249 = score(doc=4443,freq=4.0), product of:
                0.31091204 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.04488925 = queryNorm
                0.32466576 = fieldWeight in 4443, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4443)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Das Problem mit der Suchmaschinen-Optimierung Suchmaschinen sind unser Instrument, um mit der Informationsflut im Internet klar zu kommen. Wie ich in meinem Artikel Die kürzeste Anleitung zur Suchmaschinenoptimierung aller Zeiten ausgeführt habe, gibt es dabei leider das Problem, dass der Platzhirsch Google nicht wirklich die besten Suchresultate liefert: Habt ihr schon mal nach einem Hotel, einem Restaurant oder einer anderen Location gesucht - und die ersten vier Ergebnis-Seiten sind voller Location-Aggregatoren? Wenn ich ganz spezifisch nach einem Hotel soundso in der Soundso-Strasse suche, dann finde ich, das relevanteste Ergebnis ist die Webseite dieses Hotels. Das gehört auf Seite 1 an Platz 1. Dort aber finden sich nur die Webseiten, die ganz besonders dolle suchmaschinenoptimiert sind. Wobei Google Webseiten als am suchmaschinenoptimiertesten einstuft, wenn möglichst viele Links darauf zeigen und der Inhalt relevant sein soll. Die Industrie der Suchmaschinen-Optimierer erreicht dies dadurch, dass sie folgende Dinge machen: - sie lassen Programme und Praktikanten im Web rumschwirren, die sich überall mit hirnlosen Kommentaren verewigen (Hauptsache, die sind verlinkt und zeigen auf ihre zu pushende Webseite) - sie erschaffen geistlose Blogs, in denen hirnlose Texte stehen (Hauptsache, die Keyword-Dichte stimmt) - diese Texte lassen sie durch Schüler und Praktikanten oder gleich durch Software schreiben - Dann kommt es anscheinend noch auf Keywords im Titel, in der URL etc. an.
    All das führt zu folgenden negativen Begleiterscheinungen: - die meisten Kommentare heutzutage kriegt man nur noch des Links wegen: der eigentliche Sinn ist gleich Null - es gibt mittlerweile haufenweise Inhalte und ganze Blogs im Web, deren Ziel nur ist, von Google-Bots auf ihre Keyword-Dichte geprüft zu werden - aus meiner Sicht funktionieren SEO-Optimierungs-Unternehmen wie Schneeballsysteme: oben wird durch die Geschäftsführer Kohle gescheffelt, unten wird von den Praktikanten für wenig Geld sinnlos geschuftet. Aus meiner Sicht trägt Google zu diesen negativen Folgen sehr viel bei. Google legt nicht offen, sie sein Suchalgorithmus funktioniert - und es fördert damit diese Überflutung des Webs mit sinnlosen Kommentaren und Inhalten. Wie Du langsam aber sicher merkst, bin ich nicht der allergrößte Fan von Google (ich hoffe, die lesen das nicht - in Deutschland erfolgen mehr als 95% aller Suchen mit Google und ich will ja, dass der Denkpass weiterhin gut und leicht gefunden wird). horizobu - Nicht suchen, sondern recherchieren Nun ist horizobu nicht wirklich anders, zumindest in dieser Hinsicht. Aber es ist anders darin, wie es mit Suchergebnissen umgeht. Wenn Du etwas suchst, erscheinen sechs möglichst relevante Ergebnisse in einem großen Rahmen. Falls Dir diese Ergebnisse nicht zusagen, kannst Du sie einzeln (durch Klick auf das Kreuz an jedem Ergebnis) oder mehrere oder alle (durch Klick auf More) austauschen und durch die nächsten Ergebnisse ersetzen lassen. An jedem der sechs Ergebnisse gibt es auch eine Nadel zum Fixieren - dann kannst Du die anderen austauschen und dieses Ergebnis bleibt.
  18. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.01
    0.012163746 = product of:
      0.048654985 = sum of:
        0.048654985 = product of:
          0.09730997 = sum of:
            0.09730997 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.09730997 = score(doc=4686,freq=2.0), product of:
                0.1571945 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04488925 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    27.11.2005 18:04:22
  19. Spink, A.; Jansen, B.J.; Pedersen , J.: Searching for people on Web search engines (2004) 0.01
    0.011558416 = product of:
      0.046233665 = sum of:
        0.046233665 = weight(_text_:communication in 4429) [ClassicSimilarity], result of:
          0.046233665 = score(doc=4429,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.23853138 = fieldWeight in 4429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4429)
      0.25 = coord(1/4)
    
    Abstract
    The Web is a communication and information technology that is often used for the distribution and retrieval of personal information. Many people and organizations mount Web sites containing large amounts of information on individuals, particularly about celebrities. However, limited studies have examined how people search for information on other people, using personal names, via Web search engines. Explores the nature of personal name searching on Web search engines. The specific research questions addressed in the study are: "Do personal names form a major part of queries to Web search engines?"; "What are the characteristics of personal name Web searching?"; and "How effective is personal name Web searching?". Random samples of queries from two Web search engines were analyzed. The findings show that: personal name searching is a common but not a major part of Web searching with few people seeking information on celebrities via Web search engines; few personal name queries include double quotations or additional identifying terms; and name searches on Alta Vista included more advanced search features relative to those on AlltheWeb.com. Discusses the implications of the findings for Web searching and search engines, and further research.
  20. Mettrop, W.; Nieuwenhuysen, P.: Internet search engines : fluctuations in document accessibility (2001) 0.01
    0.011558416 = product of:
      0.046233665 = sum of:
        0.046233665 = weight(_text_:communication in 4481) [ClassicSimilarity], result of:
          0.046233665 = score(doc=4481,freq=2.0), product of:
            0.19382635 = queryWeight, product of:
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.04488925 = queryNorm
            0.23853138 = fieldWeight in 4481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.317879 = idf(docFreq=1601, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4481)
      0.25 = coord(1/4)
    
    Abstract
    An empirical investigation of the consistency of retrieval through Internet search engines is reported. Thirteen engines are evaluated: AltaVista, EuroFerret, Excite, HotBot, InfoSeek, Lycos, MSN, NorthernLight, Snap, WebCrawler and three national Dutch engines: Ilse, Search.nl and Vindex. The focus is on a characteristics related to size: the degree of consistency to which an engine retrieves documents. Does an engine always present the same relevant documents that are, or were, available in its databases? We observed and identified three types of fluctuations in the result sets of several kinds of searches, many of them significant. These should be taken into account by users who apply an Internet search engine, for instance to retrieve as many relevant documents as possible, or to retrieve a document that was already found in a previous search, or to perform scientometric/bibliometric measurements. The fluctuations should also be considered as a complication of other research on the behaviour and performance of Internet search engines. In conclusion: in view of the increasing importance of the Internet as a publication/communication medium, the fluctuations in the result sets of Internet search engines can no longer be neglected.

Languages

  • d 89
  • e 79
  • chi 1
  • f 1
  • nl 1
  • More… Less…

Types

  • a 152
  • el 12
  • m 7
  • p 2
  • x 2
  • r 1
  • s 1
  • More… Less…