Search (582 results, page 2 of 30)

  • × language_ss:"e"
  • × theme_ss:"Suchmaschinen"
  1. Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009) 0.02
    0.016329413 = product of:
      0.06531765 = sum of:
        0.06531765 = product of:
          0.097976476 = sum of:
            0.007327754 = weight(_text_:a in 2441) [ClassicSimilarity], result of:
              0.007327754 = score(doc=2441,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.13239266 = fieldWeight in 2441, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2441)
            0.09064872 = weight(_text_:z in 2441) [ClassicSimilarity], result of:
              0.09064872 = score(doc=2441,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 2441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2441)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
    Type
    a
  2. Leighton, H.V.: Performance of four World Wide Web (WWW) index services : Infoseek, Lycos, WebCrawler and WWWWorm (1995) 0.02
    0.01601608 = product of:
      0.06406432 = sum of:
        0.06406432 = weight(_text_:von in 3168) [ClassicSimilarity], result of:
          0.06406432 = score(doc=3168,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5002404 = fieldWeight in 3168, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=3168)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung von Hilfsmitteln zur inhaltlichen Suche von Angeboten im Internet
  3. Koch, T.: Searching the Web : systematic overview over indexes (1995) 0.02
    0.01601608 = product of:
      0.06406432 = sum of:
        0.06406432 = weight(_text_:von in 3169) [ClassicSimilarity], result of:
          0.06406432 = score(doc=3169,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5002404 = fieldWeight in 3169, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=3169)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung von Hilfsmitteln zur inhaltlichen Suche von Angeboten im Internet
  4. Liu, J.: Understanding WWW search tools (1996) 0.02
    0.01601608 = product of:
      0.06406432 = sum of:
        0.06406432 = weight(_text_:von in 3229) [ClassicSimilarity], result of:
          0.06406432 = score(doc=3229,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.5002404 = fieldWeight in 3229, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.09375 = fieldNorm(doc=3229)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung von Hilfsmitteln zur inhaltlichen Suche von Angeboten im Internet
  5. Libraries and Google (2005) 0.02
    0.015879637 = product of:
      0.031759273 = sum of:
        0.030200208 = weight(_text_:von in 1973) [ClassicSimilarity], result of:
          0.030200208 = score(doc=1973,freq=32.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.23581557 = fieldWeight in 1973, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
        0.0015590646 = product of:
          0.0046771937 = sum of:
            0.0046771937 = weight(_text_:a in 1973) [ClassicSimilarity], result of:
              0.0046771937 = score(doc=1973,freq=22.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.08450422 = fieldWeight in 1973, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1973)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Google[trademark] has become a nearly omnipresent tool of the Internet, with its potential only now beginning to be realised. How can librarians effectively integrate this powerful search engine to provide service to their patrons? "Libraries and Google[trademark]" presents leading authorities discussing the many possibilities of using Google products as effective, user-friendly tools in libraries. Google Scholar and Print are extensively explored with an eye towards offering an expanded view of what is and may be possible for the future, with practical insights on how to make the most of the product's capabilities.
    Content
    Introduction: Libraries and Their Interrelationships with Google - William Miller Disruptive Beneficence: The Google Print Program and the Future of Libraries - Mark Sandler The Google Library Project at Oxford - Ronald Milne The (Uncertain) Future of Libraries in a Google World: Sounding an Alarm - Rick Anderson A Gaggle of Googles: Limitations and Defects of Electronic Access as Panacea - -Mark Y. Herring Using the Google Search Appliance for Federated Searching: A Case Study - Mary Taylor Google's Print and Scholar Initiatives: The Value of and Impact on Libraries and Information Services - Robert J. Lackie Google Scholar vs. Library Scholar: Testing the Performance of Schoogle - Burton Callicott; Debbie Vaughn Google, the Invisible Web, and Librarians: Slaying the Research Goliath - Francine Egger-Sider; Jane Devine Choices in the Paradigm Shift: Where Next for Libraries? - Shelley E. Phipps; Krisellen Maloney Calling the Scholars Home: Google Scholar as a Tool for Rediscovering the Academic Library - Maurice C. York Checking Under the Hood: Evaluating Google Scholar for Reference Use - Janice Adlington; Chris Benda Running with the Devil: Accessing Library-Licensed Full Text Holdings Through Google Scholar - Rebecca Donlan; Rachel Cooke Directing Students to New Information Types: A New Role for Google in Literature Searches? - Mike Thelwall Evaluating Google Scholar as a Tool for Information Literacy Rachael Cathcart - Amanda Roberts Optimising Publications for Google Users - Alan Dawson Google and Privacy - Paul S. Piper Image: Google's Most Important Product - Ron Force Keeping Up with Google: Resources and Strategies for Staying Ahead of the Pack - Michael J. Krasulski; Steven J. Bell
    Footnote
    Co-published simultaneously as Internet reference services quarterly, vol. 10(1005), nos. 3/4 Rez. in: ZfBB 54(2007) H.2, S.98-99 (D. Lewandowski): "Google und Bibliotheken? Meist hat man leider den Eindruck, dass hier eher ein oder gedacht wird. Dies sehen auch die Herausgeber des vorliegenden Bandes und nehmen deshalb neben Beiträgen zur Diskussion um die Rolle der Bibliotheken im Zeitalter von Google auch solche auf, die Tipps zur Verwendung unterschiedlicher Google-Dienste geben. Die allgemeine Diskussion um Google und die Bibliotheken dreht sich vor allem um die Rolle, die Bibliotheken (mit ihren Informationsportalen) noch spielen können, wenn ihre Nutzer sowieso bei Google suchen, auch wenn die Bibliotheksangebote (zumindest von den Bibliothekaren) als überlegen empfunden werden. Auch wenn die Nutzer geschult werden, greifen sie doch meist lieber zur einfachen Recherchemöglichkeit bei Google oder anderen Suchmaschinen - vielleicht lässt sich die Situation am besten mit dem Satz eines im Buch zitierten Bibliothekars ausdrücken: »Everyone starts with Google except librarians.« (5.95) Sollen die Bibliotheken nun Google die einfache Recherche ganz überlassen und sich auf die komplexeren Suchfragen konzentrieren? Oder verlieren sie dadurch eine Nutzerschaft, die sich mittlerweile gar nicht mehr vorstellen kann, dass man mit anderen Werkzeugen als Suchmaschinen bessere Ergebnisse erzielen kann? Diese sicherlich für die Zukunft der Bibliotheken maßgebliche Frage wird in mehreren Beiträgen diskutiert, wobei auffällt, dass die jeweiligen Autoren keine klare Antwort bieten können, wie Bibliotheken ihre Quellen so präsentieren können, dass die Nutzer mit der Recherche so zufrieden sind, dass sie freiwillig in den Bibliotheksangeboten anstatt in Google recherchieren. Den Schwerpunkt des Buchs machen aber nicht diese eher theoretischen Aufsätze aus, sondern solche, die sich mit konkreten Google-Diensten beschäftigen. Aufgrund ihrer Nähe zu den Bibliotheksangeboten bzw. den Aufgaben der Bibliotheken sind dies vor allem Google Print und Google Scholar, aber auch die Google Search Appliance. Bei letzterer handelt es sich um eine integrierte Hard- und Softwarelösung, die die Indexierung von Inhalten aus unterschiedlichen Datenquellen ermöglicht. Der Aufsatz von Mary Taylor beschreibt die Vor- und Nachteile des Systems anhand der praktischen Anwendung in der University of Nevada.
    Ebenfalls direkt aus der Praxis erhält der Leser Informationen zum Google-PrintProgramm. Robert Milne beschreibt die Zusammenarbeit von Google und der Universität Oxford. In diesem Aufsatz wird - was dem Autor natürlich nicht anzulasten ist - ein Problem des vorliegenden Werks deutlich: Viele Informationen sind doch von sehr beschränkter Haltbarkeit. Der Redaktionsschluss war im Frühsommer 2005, sodass sich in vielen Bereichen bereits neue Entwicklungen ergeben haben. Dies ist beim Print-Programm der Fall, vor allem wird es aber bei dem Hauptthema des Bandes, nämlich Google Scholar, deutlich. Dieser Dienst wurde im November 2004 gestartet und stieß auf unterschiedlichste Reaktionen, die (anhand von Beispielen amerikanischer Bibliotheken) im Beitrag von Maurice C. York beschrieben werden. Einige Bibliotheken nahmen den Dienst begeistert auf und verlinkten diesen mit Lob versehen auf ihren Websites. Andere reagierten gegenteilig und warnten vor dessen schlechter Qualität. Auch weil vorauszusehen war, dass Google Scholar bei den Nutzern gut ankommen würde, darf das folgende Statement von einer Bibliothekswebsite geradezu als ignorant gelten: Google Scholar »is wonderful for those who do not have access to the library's databases« (S.119). Wie nun die Scholar-Nutzer auf die Bibliotheksangebote gelenkt werden können, beschreibt der ironisch »Running with the Devil« betitelte Aufsatz von Rebecca Donlan und Rachel Cooke. Die Autorinnen beschreiben den Einsatz von Link-Resolvern und gehen auf die in Google Scholar bestehenden Probleme durch unklare Bezeichnungen in den Trefferlisten ein. Einige Beispiele zeigen, dass Google Scholar auch in Kombination mit der Verlinkung auf die Bibliotheksbestände keine befriedigende Recherchesituation herstellt, sondern vielmehr weitere Anstrengungen nötig sind, um »das Beste beider Welten« zusammenzuführen. Zwei weitere Aufsätze beschäftigen sich mit der Frage, wie gut Google Scholar eigentlich ist. Einmal geht es darum, wie gut Scholar den »ACRL Information Literacy Standards« genügt. Der zweite Beitrag vergleicht Google Scholar anhand von fünf Suchaufgaben einerseits mit einem lokalen Bibliothekskatalog, andererseits mit EBSCOs Academic Search Premier und jeweils einer fachspezifischen Datenbank. Die Ergebnisse zeigen keine durchgehende Überlegenheit einer Suchlösung, vielmehr wird deutlich, dass es auf die Auswahl des richtigen Suchwerkzeugs für die bestehende Suchanfrage ankommt bzw. dass erst eine Kombination dieser Werkzeuge zu optimalen Ergebnissen führt. Man könnte also auch hier wieder sagen: Google und Bibliotheken, nicht Google oder Bibliotheken.
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
    Weitere Rez. in JASIST 59(2008) H.9, S.1531-1533 (J. Satyanesan): "Libraries and Google is an interesting and enlightening compilation of 18 articles on Google and its impact on libraries. The topic is very current, debatable, and thought provoking. Google has profoundly empowered individuals and transformed access to information and librarians are very much concerned about its popularity and visibility. In this book, the leading authorities discuss the usefulness of Google, its influence and potential menace to libraries, and its implications for libraries and the scholarly communication. They offer practical suggestions to cope with the changing situation. The articles are written from different perspective and express all shades of opinion, both hopeful and fearful. One can discern varied moods-apprehension, resignation, encouragement, and motivation-on the part of the librarians. This is an important book providing a wealth of information for the 21st century librarian. There is a section called "Indexing, Abstracting & Website/Internet Coverage," which lists major indexing and abstracting services and other tools for bibliographic access. The format of the articles is uniform with an introduction, key words, and with the exception of two articles the rest have summaries and conclusions. References and notes of varying lengths are included in each article. This book has been copublished simultaneously as Internet Reference Quarterly, 10(3/4), 2005. Although there are single articles written on Google and libraries, this is the first book-length treatment of the topic.
    ... This book is written by library professionals and aimed at the librarians in particular, but it will be useful to others who may be interested in knowing what libraries are up to in the age of Google. It is intended for library science educators and students, library administrators, publishers and university presses. It is well organized, well researched, and easily readable. Article titles are descriptive, allowing the reader to find what he needs by scanning the table of contents or by consulting the index. The only flaw in this book is the lack of summary or conclusions in a few articles. The book is in paperback and has 240 pages. This book is a significant contribution and I highly recommend it."
  6. Chen, Z.; Meng, X.; Fowler, R.H.; Zhu, B.: Real-time adaptive feature and document learning for Web search (2001) 0.01
    0.014448237 = product of:
      0.057792947 = sum of:
        0.057792947 = product of:
          0.08668942 = sum of:
            0.0111488225 = weight(_text_:a in 5209) [ClassicSimilarity], result of:
              0.0111488225 = score(doc=5209,freq=20.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.20142901 = fieldWeight in 5209, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5209)
            0.075540595 = weight(_text_:z in 5209) [ClassicSimilarity], result of:
              0.075540595 = score(doc=5209,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.29484767 = fieldWeight in 5209, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5209)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    Chen et alia report on the design of FEATURES, a web search engine with adaptive features based on minimal relevance feedback. Rather than developing user profiles from previous searcher activity either at the server or client location, or updating indexes after search completion, FEATURES allows for index and user characterization files to be updated during query modification on retrieval from a general purpose search engine. Indexing terms relevant to a query are defined as the union of all terms assigned to documents retrieved by the initial search run and are used to build a vector space model on this retrieved set. The top ten weighted terms are presented to the user for a relevant non-relevant choice which is used to modify the term weights. Documents are chosen if their summed term weights are greater than some threshold. A user evaluation of the top ten ranked documents as non-relevant will decrease these term weights and a positive judgement will increase them. A new ordering of the retrieved set will generate new display lists of terms and documents. Precision is improved in a test on Alta Vista searches.
    Type
    a
  7. Birmingham, J.: Internet search engines (1996) 0.01
    0.014417464 = product of:
      0.057669856 = sum of:
        0.057669856 = product of:
          0.08650478 = sum of:
            0.008461362 = weight(_text_:a in 5664) [ClassicSimilarity], result of:
              0.008461362 = score(doc=5664,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.15287387 = fieldWeight in 5664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5664)
            0.078043416 = weight(_text_:22 in 5664) [ClassicSimilarity], result of:
              0.078043416 = score(doc=5664,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.46428138 = fieldWeight in 5664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5664)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    Basically a good listing in table format of features from the major search engines
    Date
    10.11.1996 16:36:22
  8. Hock, R.E.: How to do field searching in Web search engines : a field trip (1998) 0.01
    0.014365583 = product of:
      0.05746233 = sum of:
        0.05746233 = product of:
          0.086193494 = sum of:
            0.012613453 = weight(_text_:a in 3601) [ClassicSimilarity], result of:
              0.012613453 = score(doc=3601,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.22789092 = fieldWeight in 3601, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3601)
            0.07358004 = weight(_text_:22 in 3601) [ClassicSimilarity], result of:
              0.07358004 = score(doc=3601,freq=4.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.4377287 = fieldWeight in 3601, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3601)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    Explains how 5 Internet search engines (AltaVista, HotBot, InfoSeek, Lycos, and Yahoo) handle field searching. Includes a chart which identifies where on a search engine's page a particular field is searched and the prefix syntax used, and gives examples. Details the individual fields that can be searched: data, title, URL, images, audiovideo and other page content, links and page depth
    Source
    Online. 22(1998) no.3, S.18-22
    Type
    a
  9. Chung, W.; Zhang, Y.; Huang, Z.; Wang, G.; Ong, T.-H.; Chen, H.: Internet searching and browsing in a multilingual world : an experiment an the Chinese Business Intelligence Portal (CBizPort) (2004) 0.01
    0.0142520685 = product of:
      0.057008274 = sum of:
        0.057008274 = product of:
          0.08551241 = sum of:
            0.0099718105 = weight(_text_:a in 2393) [ClassicSimilarity], result of:
              0.0099718105 = score(doc=2393,freq=16.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.18016359 = fieldWeight in 2393, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2393)
            0.075540595 = weight(_text_:z in 2393) [ClassicSimilarity], result of:
              0.075540595 = score(doc=2393,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.29484767 = fieldWeight in 2393, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2393)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    The rapid growth of the non-English-speaking Internet population has created a need for better searching and browsing capabilities in languages other than English. However, existing search engines may not serve the needs of many non-English-speaking Internet users. In this paper, we propose a generic and integrated approach to searching and browsing the Internet in a multilingual world. Based an this approach, we have developed the Chinese Business Intelligence Portal (CBizPort), a meta-search engine that searches for business information of mainland China, Taiwan, and Hong Kong. Additional functions provided by CBizPort include encoding conversion (between Simplified Chinese and Traditional Chinese), summarization, and categorization. Experimental results of our user evaluation study show that the searching and browsing performance of CBizPort was comparable to that of regional Chinese search engines, and CBizPort could significantly augment these search engines. Subjects' verbal comments indicate that CBizPort performed best in terms of analysis functions, cross-regional searching, and user-friendliness, whereas regional search engines were more efficient and more popular. Subjects especially liked CBizPort's summarizer and categorizer, which helped in understanding search results. These encouraging results suggest a promising future of our approach to Internet searching and browsing in a multilingual world.
    Type
    a
  10. Pieper, D.; Wolf, S.: BASE - Eine Suchmaschine für OAI-Quellen und wissenschaftliche Webseiten (2007) 0.01
    0.014035223 = product of:
      0.028070446 = sum of:
        0.026425181 = weight(_text_:von in 294) [ClassicSimilarity], result of:
          0.026425181 = score(doc=294,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.20633863 = fieldWeight in 294, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0546875 = fieldNorm(doc=294)
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 294) [ClassicSimilarity], result of:
              0.004935794 = score(doc=294,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 294, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=294)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Aufsatz beschreibt die Entwicklung der Suchmaschine BASE (Bielefeld Academic Search Engine) seit 2005. In dieser Zeit wurde der Index um ein Vielfaches ausgebaut und auch die Nutzungszahlen stiegen deutlich. Der Schwerpunkt liegt auf der Indexierung von Dokumentenservern, die ihre Daten über das "Protocol for Metadata Harvesting" (OAI-PMH) bereitstellen. Im Gegensatz zu speziellen OAI-Suchmaschine wie OAIster verfügt BASE jedoch über weitergehende Suchmöglichkeiten und indexiert auch wissenschaftliche Webseiten mit Hilfe eines integrierten Web-Crawlers und andere Quellen, wie zum Beispiel den Bibliothekskatalog der Universitätsbibliothek Bielefeld. BASE kommt darüber hinaus als Suchsystem auch in anderen Bereichen, zum Beispiel im Bielefeld eScholarship Repository, als Suchmaschine der Universität Bielefeld und im EU-Projekt DRIVER via Schnittstellen zum BASE-Index zum Einsatz.
    Type
    a
  11. Weichselgartner, E.; Baier, C.: Sechs Jahre PsychSpider : Aus der Praxis des Betriebs einer Psychologie-Suchmaschine für freie Web-Inhalte (2007) 0.01
    0.013934327 = product of:
      0.027868655 = sum of:
        0.026693465 = weight(_text_:von in 293) [ClassicSimilarity], result of:
          0.026693465 = score(doc=293,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=293)
        0.001175189 = product of:
          0.003525567 = sum of:
            0.003525567 = weight(_text_:a in 293) [ClassicSimilarity], result of:
              0.003525567 = score(doc=293,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 293, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=293)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Seit Sommer 2000 betreibt das Zentrum für Psychologische Information und Dokumentation (ZPID) den PsychSpider, eine Spezialsuchmaschine für wissenschaftliche Inhalte zur Psychologie. Der PsychSpider ist vorwiegend eine Websuchmaschine, aber auch strukturierte bibliographische Daten werden indiziert. Gegenwärtig bietet der PsychSpider den integrierten Zugang zu ca. 800.000 Dokumenten aus dem Surface Web und dem Deep Web. Die Suchmaschine verfügt über zahlreiche fortschrittliche Merkmale wie Boolesche Operatoren, natürlichsprachige Eingaben, "Query-by-Example", Relevanzbewertung der Resultate, Strukturierung des Datenbestands in unterschiedliche Kollektionen, im- und exportierbare Indexe, parametrische Suche und automatische Kategorisierung. Die mehrjährige Erfahrung zeigt, dass auch eine Technologie, die eigentlich dazu dienen sollte, möglichst automatisch die relevanten Informationen aus den Myriaden von Dokumenten im Internet herauszufischen, umfängliche menschliche Betreuung braucht. Das liegt an der formalen und inhaltlichen Qualität von Inhalten, aber auch an technologischen Faktoren wie zum Beispiel Content Management Systemen. Die Nutzung des PsychSpider ist über die Jahre kontinuierlich gewachsen und er gehört zu den erfolgreichsten Web-Angeboten des ZPID. Aus strategischer Sicht ist eine nach den Kriterien einer wissenschaftlichen Fachinformationseinrichtung betriebene Suchmaschine unverzichtbar und der weitere Ausbau wird die Attraktivität deutlich erhöhen.
    Type
    a
  12. hbz: ¬Das Suchraum-Konzept (2007) 0.01
    0.013934327 = product of:
      0.027868655 = sum of:
        0.026693465 = weight(_text_:von in 310) [ClassicSimilarity], result of:
          0.026693465 = score(doc=310,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 310, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
        0.001175189 = product of:
          0.003525567 = sum of:
            0.003525567 = weight(_text_:a in 310) [ClassicSimilarity], result of:
              0.003525567 = score(doc=310,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.06369744 = fieldWeight in 310, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=310)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
    Type
    a
  13. Koch, T.: Literature about search services (1996) 0.01
    0.013346733 = product of:
      0.05338693 = sum of:
        0.05338693 = weight(_text_:von in 3039) [ClassicSimilarity], result of:
          0.05338693 = score(doc=3039,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.416867 = fieldWeight in 3039, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.078125 = fieldNorm(doc=3039)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung von Beiträgen zu Hilfsmitteln zur inhaltlichen Suche von Angeboten im Internet
  14. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.01
    0.013185132 = product of:
      0.026370265 = sum of:
        0.02504069 = weight(_text_:von in 312) [ClassicSimilarity], result of:
          0.02504069 = score(doc=312,freq=22.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.19552796 = fieldWeight in 312, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.0013295747 = product of:
          0.003988724 = sum of:
            0.003988724 = weight(_text_:a in 312) [ClassicSimilarity], result of:
              0.003988724 = score(doc=312,freq=16.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.072065435 = fieldWeight in 312, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    How do you find your way in an age of information overload? How can you filter streams of complex information to pull out only what you want? Why does it matter how information is structured when Google seems to magically bring up the right answer to your questions? What does it mean to be "findable" in this day and age? This eye-opening new book examines the convergence of information and connectivity. Written by Peter Morville, author of the groundbreakin Information Architecture for the World Wide Web, the book defines our current age as a state of unlimited findability. In other words, anyone can find anything at any time. Complete navigability. Morville discusses the Internet, GIS, and other network technologies that are coming together to make unlimited findability possible. He explores how the melding of these innovations impacts society, since Web access is now a standard requirement for successful people and businesses. But before he does that, Morville looks back at the history of wayfinding and human evolution, suggesting that our fear of being lost has driven us to create maps, charts, and now, the mobile Internet.
    The book's central thesis is that information literacy, information architecture, and usability are all critical components of this new world order. Hand in hand with that is the contention that only by planning and designing the best possible software, devices, and Internet, will we be able to maintain this connectivity in the future. Morville's book is highlighted with full color illustrations and rich examples that bring his prose to life. Ambient Findability doesn't preach or pretend to know all the answers. Instead, it presents research, stories, and examples in support of its novel ideas. Are w truly at a critical point in our evolution where the quality of our digital networks will dictate how we behave as a species? Is findability indeed the primary key to a successful global marketplace in the 21st century and beyond. Peter Morville takes you on a thought-provoking tour of these memes and more -- ideas that will not only fascinate but will stir your creativity in practical ways that you can apply to your work immediately.
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 57(2006) H.3, S.177-178 (D. Lewandowski): "Wohl unbestritten ist, dass die Suche in Informationsbeständen eine immer größere Bedeutung erhält. Wir suchen nicht nur noch explizit, indem wir ein Informationssystem anwählen und dort eine Suche absetzen, sondern verwenden Suchfunktionen innerhalb von Programmen, auf Websites, innerhalb des Betriebssystems unseres Computers oder sogar ziemlich unbewusst, indem wir Informationen maßgeschneidert aufgrund einer einmal hinterlegten Suche oder eines automatisch erstellten Suchprofils erhalten. Man kann also in der Tat davon sprechen, dass wir von der Suche umgeben werden. Das ist mit dem Konzept der "Ambient Findability" gemeint. Angelehnt ist diese Bezeichnung an den Begriff der "Ambient Music" (in den 70er Jahren durch Brian Eno geprägt), die den Hörer umgibt und von ihm oft gar nicht aktiv wahrgenommen wird. Um eine Vorstellung von dieser Musik zu bekommen, eignet sich vielleicht am besten der Titel einer Platte eben von Brian Eno: "Music for Airports". Peter Morville, bekannt als Co-Autor des empfehlenswerten Buchs "Information Architecture for the World Wide Web"', hat sich nun mit der Veränderung der Suche auseinandergesetzt. Sein Buch bedient sich in ganz unterschiedlichen Disziplinen, um die Prozesse des Suchens, Stöberns und Findens aufzuzeigen. So finden sich Betrachtungen über die Orientierung des Menschen in unbekannten Umgebungen, über die Interaktion mit Informationssystemen, über das soziale Verhalten der Web-Nutzer (Stichworte: Content-Tagging, Folksonomies, Social Networking) und über technische Veränderungen durch die Verfügbarkeit von Informationssystemen in allen Lebenskontexten, vor allem auch über mobile Endgeräte. Das Buch ist in sieben Kapitel gegliedert. Das erste, "Lost and Found" betitelt, bietet auf wenigen Seiten die Definitionen der zentralen Begriffe ambient und findability, erläutert kurz das Konzept der Information Literacy und zeigt, dass die bessere Auffindbarkeit von Informationen nicht nur ein schöner Zusatznutzen ist, sondern sich für Unternehmen deutlich auszahlt.
    Das zweite Kapitel ("A Brief History of Wayfinding") beschreibt, wie Menschen sich in Umgebungen zurechtfinden. Dies ist insofern interessant, als hier nicht erst bei Informationssystemen oder dem WWW begonnen wird, sondern allgemeine Erkenntnisse beispielsweise über die Orientierung in natürlichen Umgebungen präsentiert werden. Viele typische Verhaltensweisen der Nutzer von Informationssystemen können so erklärt werden. So interessant dieses Thema allerdings ist, wirkt das Kapitel leider doch nur wie eine Zusammenstellung von Informationen aus zweiter Hand. Offensichtlich ist, dass Morville nicht selbst an diesen Themen geforscht hat, sondern die Ergebnisse (wenn auch auf ansprechende Weise) zusammengeschrieben hat. Dieser Eindruck bestätigt sich auch in weiteren Kapiteln: Ein flüssig geschriebener Text, der es jedoch an einigen Stellen an Substanz fehlen lässt. Kapitel drei, "Information Interaction" beginnt mit einem Rückgriff auf Calvin Mooers zentrale Aussage aus dem Jahre 1959: "An information retrieval system will tend not to be used whenever it is more painful and troublesome for a customer to have information than for him not to have it." In der Tat sollte man sich dies bei der Erstellung von Informationssystemen immer vergegenwärtigen; die Reihe der Systeme, die gerade an dieser Hürde gescheitert sind, ist lang. Das weitere Kapitel führt in einige zentrale Konzepte der Informationswissenschaft (Definition des Begriffs Information, Erläuterung des Information Retrieval, Wissensrepräsentation, Information Seeking Behaviour) ein, allerdings ohne jeden Anspruch auf Vollständigkeit. Es wirkt vielmehr so, dass der Autor sich die gerade für sein Anliegen passenden Konzepte auswählt und konkurrierende Ansätze beiseite lässt. Nur ein Beispiel: Im Abschnitt "Information Interaction" wird relativ ausführlich das Konzept des Berrypicking nach Marcia J. Bates präsentiert, allerdings wird es geradezu als exklusiv verkauft, was es natürlich bei weitem nicht ist. Natürlich kann es nicht Aufgabe dieses Buchs sein, einen vollständigen Überblick über alle Theorien des menschlichen Suchverhaltens zu geben (dies ist an anderer Stelle vorbildlich geleistet worden'), aber doch wenigstens der Hinweis auf einige zentrale Ansätze wäre angebracht gewesen. Spätestens in diesem Kapitel wird klar, dass das Buch sich definitiv nicht an Informationswissenschaftler wendet, die auf der einen Seite mit den grundlegenden Themen vertraut sein dürften, andererseits ein wenig mehr Tiefgang erwarten würden. Also stellt sich die Frage - und diese ist zentral für die Bewertung des gesamten Werks.
    Für wen wurde dieses Buch eigentlich geschrieben? Der Verlag, sonst für eher praktisch orientierte Computerbücher bekannt, ordnet es auf dem Umschlag den Bereichen "Marketing" sowie "Technology & Society" zu. Für letztere Zielgruppe ist es aber sicher weniger geeignet, da auch der gesellschaftliche Hintergrund zu dünn ist. So bleibt der Bereich Marketing oder doch eher die Zielgruppe derjenigen, die ohne fachbezogenes Studium in den Bereich Informationssysteme bzw. Informationsarchitektur "hineingeschlittert" sind. Für diese mag auch das Kapitel über "Information Interaction" (bedingt) geeignet sein, bietet es doch zumindest einen gut lesbaren Einblick in einige zentrale Punkte. Das vierte Kapitel ("Intertwingled") beschreibt den Zugriff auf Informationen mittels verschiedener Erdgeräte in unterschiedlichen Kontexten. Es geht hier neben neuen Ansätzen des Wegefindens, um lokalisierbare Objekte und Kleidung, in die Informationstechnologie mit eingebaut ist. Dabei handelt es sich um einen guten (und vor allem beispielreichen) Überblick der aufkommenden Technologien. Kapitel s behandelt die Integration von Push- und PullAnsätzen, wobei die zentrale Aussage lautet, dass beide Ansätze immer mehr zusammenwachsen und die Entscheidung für den einen oder den anderen Ansatz vom Nutzer spontan gemäß seinen Informationsbedürfnissen getroffen wird. In diesem Kapitel wird auch das Thema Personalisierung abgehandelt und auf die bei der Personalisierung entstehenden Probleme eingegangen. Lange Zeit wurde Personalisierung schlicht als ein Verfahren gesehen, aus einmal erfassten Nutzerdaten Empfehlungen abzuleiten. Dass dies nicht problemlos möglich ist, erläutert Morville an einigen Punkten. Etwas bedauerlich ist hier, dass die Erläuterungen sehr knapp gehalten sind. Gerade zu diesem interessanten Thema hätte man gerne mehr Details erfahren.
  15. Hjoerland, B.: Domain analysis in information science : eleven approaches - traditional as well as innovative (2002) 0.01
    0.01254637 = product of:
      0.02509274 = sum of:
        0.022650154 = weight(_text_:von in 4464) [ClassicSimilarity], result of:
          0.022650154 = score(doc=4464,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.17686167 = fieldWeight in 4464, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=4464)
        0.0024425848 = product of:
          0.007327754 = sum of:
            0.007327754 = weight(_text_:a in 4464) [ClassicSimilarity], result of:
              0.007327754 = score(doc=4464,freq=6.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.13239266 = fieldWeight in 4464, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4464)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    What kind of knowledge is needed by information specialists working in a specific subject field like medicine, sociology or music? What approaches have been used in information science to produce kinds of domain-specific knowledge? This article presents 11 approaches to domain analysis. Together these approaches make a unique competence for information specialists. The approaches are: producing literature guides and subject gateways, producing special classifications and thesauri; research an indexing and retrieving specialities, empirical user studies; bibliometrical studies; historical studies; document and genre studies; epistemological and critical studies; terminological studies, LSP (languages for special purposes), discourse studies; studies of structures and institutions in scientific communication; and domain analysis in professional cognition and artificial intelligence. Specific examples and selective reviews of literature are provided, and the strengths and drawbacks of each of these approaches are discussed
    Footnote
    Vgl. auch den Leserbrief von Hjoerland in JASIST 53(2002) no.14, S.1275-1276.
    Type
    a
  16. Price, A.: Five new Danish subject gateways under development (2000) 0.01
    0.012501333 = product of:
      0.05000533 = sum of:
        0.05000533 = product of:
          0.075008 = sum of:
            0.0099718105 = weight(_text_:a in 4878) [ClassicSimilarity], result of:
              0.0099718105 = score(doc=4878,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.18016359 = fieldWeight in 4878, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
            0.065036185 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.065036185 = score(doc=4878,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Date
    22. 6.2002 19:41:31
    Type
    a
  17. Lewandowski, D.; Drechsler, J.; Mach, S. von: Deriving query intents from web search engine queries (2012) 0.01
    0.010992194 = product of:
      0.021984387 = sum of:
        0.01887513 = weight(_text_:von in 385) [ClassicSimilarity], result of:
          0.01887513 = score(doc=385,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.14738473 = fieldWeight in 385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=385)
        0.0031092581 = product of:
          0.009327774 = sum of:
            0.009327774 = weight(_text_:a in 385) [ClassicSimilarity], result of:
              0.009327774 = score(doc=385,freq=14.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.1685276 = fieldWeight in 385, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=385)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    The purpose of this article is to test the reliability of query intents derived from queries, either by the user who entered the query or by another juror. We report the findings of three studies. First, we conducted a large-scale classification study (~50,000 queries) using a crowdsourcing approach. Next, we used clickthrough data from a search engine log and validated the judgments given by the jurors from the crowdsourcing study. Finally, we conducted an online survey on a commercial search engine's portal. Because we used the same queries for all three studies, we also were able to compare the results and the effectiveness of the different approaches. We found that neither the crowdsourcing approach, using jurors who classified queries originating from other users, nor the questionnaire approach, using searchers who were asked about their own query that they just entered into a Web search engine, led to satisfying results. This leads us to conclude that there was little understanding of the classification tasks, even though both groups of jurors were given detailed instructions. Although we used manual classification, our research also has important implications for automatic classification. We must question the success of approaches using automatic classification and comparing its performance to a baseline from human jurors.
    Type
    a
  18. Peereboom, M.: DutchESS : Dutch Electronic Subject Service - a Dutch national collaborative effort (2000) 0.01
    0.010773733 = product of:
      0.043094933 = sum of:
        0.043094933 = product of:
          0.0646424 = sum of:
            0.012613453 = weight(_text_:a in 4869) [ClassicSimilarity], result of:
              0.012613453 = score(doc=4869,freq=10.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.22789092 = fieldWeight in 4869, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
            0.052028947 = weight(_text_:22 in 4869) [ClassicSimilarity], result of:
              0.052028947 = score(doc=4869,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 4869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    This article gives an overview of the design and organisation of DutchESS, a Dutch information subject gateway created as a national collaborative effort of the National Library and a number of academic libraries. The combined centralised and distributed model of DutchESS is discussed, as well as its selection policy, its metadata format, classification scheme and retrieval options. Also some options for future collaboration on an international level are explored
    Date
    22. 6.2002 19:39:23
    Type
    a
  19. Conhaim, W.W.: Search tools (1996) 0.01
    0.0105517935 = product of:
      0.042207174 = sum of:
        0.042207174 = product of:
          0.06331076 = sum of:
            0.011281814 = weight(_text_:a in 4738) [ClassicSimilarity], result of:
              0.011281814 = score(doc=4738,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.20383182 = fieldWeight in 4738, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4738)
            0.052028947 = weight(_text_:22 in 4738) [ClassicSimilarity], result of:
              0.052028947 = score(doc=4738,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 4738, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4738)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    Describes the 3 most popular searching tools for the WWW: InfoSeek, Yahoo and Lycos. Searching Internet directories can also be a useful search technique. Lists other searching engines. Points out a number of evaluations of these search engines published on the WWW. A number of search tools are available for specialized areas. Sites are available that enable parallel searching using several tools at once. Describes WWW pages with information about search engines
    Date
    1. 8.1996 22:39:31
    Type
    a
  20. Amato, G.; Rabitti, F.; Savino, P.: Multimedia document search on the Web (1998) 0.01
    0.0105517935 = product of:
      0.042207174 = sum of:
        0.042207174 = product of:
          0.06331076 = sum of:
            0.011281814 = weight(_text_:a in 3605) [ClassicSimilarity], result of:
              0.011281814 = score(doc=3605,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.20383182 = fieldWeight in 3605, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3605)
            0.052028947 = weight(_text_:22 in 3605) [ClassicSimilarity], result of:
              0.052028947 = score(doc=3605,freq=2.0), product of:
                0.16809508 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04800207 = queryNorm
                0.30952093 = fieldWeight in 3605, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3605)
          0.6666667 = coord(2/3)
      0.25 = coord(1/4)
    
    Abstract
    Presents a multimedia model which describes the various multimedia components, their structure and their relationships with a pre-defined taxonomy of concepts, in order to support search engine information retrieval process
    Date
    1. 8.1996 22:08:06
    Footnote
    Contribution to a special issue devoted to the Proceedings of the 7th International World Wide Web Conference, held 14-18 April 1998, Brisbane, Australia
    Type
    a

Years

Types

  • a 520
  • el 56
  • m 25
  • s 6
  • r 2
  • x 1
  • More… Less…

Subjects