Search (10 results, page 1 of 1)

  • × classification_ss:"06.74 / Informationssysteme"
  • × theme_ss:"Suchmaschinen"
  • × type_ss:"m"
  1. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.03
    0.031124199 = product of:
      0.062248398 = sum of:
        0.03203216 = weight(_text_:von in 4323) [ClassicSimilarity], result of:
          0.03203216 = score(doc=4323,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2501202 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.03021624 = product of:
          0.09064872 = sum of:
            0.09064872 = weight(_text_:z in 4323) [ClassicSimilarity], result of:
              0.09064872 = score(doc=4323,freq=2.0), product of:
                0.2562021 = queryWeight, product of:
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.04800207 = queryNorm
                0.35381722 = fieldWeight in 4323, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.337313 = idf(docFreq=577, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4323)
          0.33333334 = coord(1/3)
      0.5 = coord(2/4)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
  2. Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.01
    0.009987781 = product of:
      0.039951123 = sum of:
        0.039951123 = weight(_text_:von in 2858) [ClassicSimilarity], result of:
          0.039951123 = score(doc=2858,freq=14.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.3119547 = fieldWeight in 2858, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen sind die neuen »Gatekeeper« im Internet. Sie kanalisieren unsere Aufmerksamkeit und haben entscheidenden Einfluss darauf, welche Inhalte wie zugänglich sind. Ohne sie sind Informationen im Netz nur schwer auffindbar. Allerdings: Nur wenige Nutzer wissen, wie man Suchmaschinen optimal bedient und wie sie funktionieren. Sie sind anfällig für Manipulationen (»Spamming«) und verschaffen auch ungewollt Zugang zu illegalen und jugendgefährdenden Inhalten. Wie können Suchmaschinen trotzdem ihrer Verantwortung als zentrale Informationssortierer gerecht werden? Eine groß angelegte Untersuchung der Bertelsmann Stiftung stellt diese Beobachtungen auf eine wissenschaftliche Basis. Eine Nutzerbefragung, ein Laborexperiment und ein Leistungsvergleich geben Aufschluss über Image, Bedienerfreundlichkeit und Qualität von Suchmaschinen. Aus dieser Analyse entwickeln die Autoren einen Code of Conduct für Suchmaschinenbetreiber, der einen möglichst objektiven und transparenten Zugang zu Informationen im Netz garantieren soll. Das Buch ist dreigeteilt: Im ersten umfangreichen Teil (bis Seite 490) werden, nach einer Einführung in die Suchmaschinenproblematik und ihr Umfeld, Qualität und Nutzung erforscht: Nach der Marktanalyse der deutschsprachigen Suchdienste werden ausgewählte einem Leistungsvergleich unterzogen. Der Gefährdung von Kindern und Jugendlichen widmet sich das Kapitel Problemanalyse. Wie erfolgreich Spamversuche die Suchergebnisse beeinflussen können, wird anschließend dargestellt. Den Kenntnissen und Einstellungen von Nutzern von Suchdiensten widmet sich ein ausführliches Kapitel. Nutzungshäufigkeit, Suchprozesse und Vorgehensweisen sind detailliert untersucht worden. Die Ergebnisse der Laborexperimente liefern konkrete Einsichten, auf über 100 Seiten verständlich beschrieben. In Kapitel 6 werden die angewandten Methoden ausführlich erläutert. Das angefügte Glossar könnte ausführlicher sein. Der zweite Teil appelliert an die gesellschaftliche Verantwortung der deutschen Suchdienstbetreiber, indem ein Code of Conduct für Suchmaschinen entworfen wird. Im dritten Teil wird auf die Entwicklungen in der Suchmaschinenlandschaft eingegangen, die sich durch Firmenübernahmen und die Monopolstellung von Google ergeben haben.
    Content
    Enthält die Beiträge: Vorwort (Miriam Meckel) Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen (Marcel Machill, Christoph Neuberger, Wolfgang Schweiger, Werner Wirth) Ein Code of Conduct für Suchmaschinen (Carsten Welp) Die Suchmaschinenlandschaft 2003: Wirtschaftliche und technische Entwicklungen (Stefan Karzauninkat)
  3. Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003) 0.01
    0.0066733663 = product of:
      0.026693465 = sum of:
        0.026693465 = weight(_text_:von in 6) [ClassicSimilarity], result of:
          0.026693465 = score(doc=6,freq=4.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.2084335 = fieldWeight in 6, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."
  4. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.00
    0.003775026 = product of:
      0.015100104 = sum of:
        0.015100104 = weight(_text_:von in 1719) [ClassicSimilarity], result of:
          0.015100104 = score(doc=1719,freq=2.0), product of:
            0.12806706 = queryWeight, product of:
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.04800207 = queryNorm
            0.117907785 = fieldWeight in 1719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.6679487 = idf(docFreq=8340, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  5. Belew, R.K.: Finding out about : a cognitive perspective on search engine technology and the WWW (2001) 0.00
    7.795323E-4 = product of:
      0.0031181292 = sum of:
        0.0031181292 = product of:
          0.009354387 = sum of:
            0.009354387 = weight(_text_:a in 3346) [ClassicSimilarity], result of:
              0.009354387 = score(doc=3346,freq=22.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.16900843 = fieldWeight in 3346, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3346)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    The World Wide Web is rapidly filling with more text than anyone could have imagined even a short time ago, but the task of isolating relevant parts of this vast information has become just that much more daunting. Richard Belew brings a cognitive perspective to the study of information retrieval as a discipline within computer science. He introduces the idea of Finding Out About (FDA) as the process of actively seeking out information relevant to a topic of interest and describes its many facets - ranging from creating a good characterization of what the user seeks, to what documents actually mean, to methods of inferring semantic clues about each document, to the problem of evaluating whether our search engines are performing as we have intended. Finding Out About explains how to build the tools that are useful for searching collections of text and other media. In the process it takes a close look at the properties of textual documents that do not become clear until very large collections of them are brought together and shows that the construction of effective search engines requires knowledge of the statistical and mathematical properties of linguistic phenomena, as well as an appreciation for the cognitive foundation we bring to the task as language users. The unique approach of this book is its even handling of the phenomena of both numbers and words, making it accessible to a wide audience. The textbook is usable in both undergraduate and graduate classes on information retrieval, library science, and computational linguistics. The text is accompanied by a CD-ROM that contains a hypertext version of the book, including additional topics and notes not present in the printed edition. In addition, the CD contains the full text of C.J. "Keith" van Rijsbergen's famous textbook, Information Retrieval (now out of print). Many active links from Belew's to van Rijsbergen's hypertexts help to unite the material. Several test corpora and indexing tools are provided, to support the design of your own search engine. Additional exercises using these corpora and code are available to instructors. Also supporting this book is a Web site that will include recent additions to the book, as well as links to sites of new topics and methods.
  6. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.00
    4.985905E-4 = product of:
      0.001994362 = sum of:
        0.001994362 = product of:
          0.005983086 = sum of:
            0.005983086 = weight(_text_:a in 2605) [ClassicSimilarity], result of:
              0.005983086 = score(doc=2605,freq=4.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.10809815 = fieldWeight in 2605, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2605)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
  7. Levy, S.: In the plex : how Google thinks, works, and shapes our lives (2011) 0.00
    4.1131617E-4 = product of:
      0.0016452647 = sum of:
        0.0016452647 = product of:
          0.004935794 = sum of:
            0.004935794 = weight(_text_:a in 9) [ClassicSimilarity], result of:
              0.004935794 = score(doc=9,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.089176424 = fieldWeight in 9, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=9)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    Few companies in history have ever been as successful and as admired as Google, the company that has transformed the Internet and become an indispensable part of our lives. How has Google done it? Veteran technology reporter Steven Levy was granted unprecedented access to the company, and in this revelatory book he takes readers inside Google headquarters-the Googleplex-to show how Google works. While they were still students at Stanford, Google cofounders Larry Page and Sergey Brin revolutionized Internet search. They followed this brilliant innovation with another, as two of Google's earliest employees found a way to do what no one else had: make billions of dollars from Internet advertising. With this cash cow (until Google's IPO nobody other than Google management had any idea how lucrative the company's ad business was), Google was able to expand dramatically and take on other transformative projects: more efficient data centers, open-source cell phones, free Internet video (YouTube), cloud computing, digitizing books, and much more. The key to Google's success in all these businesses, Levy reveals, is its engineering mind-set and adoption of such Internet values as speed, openness, experimentation, and risk taking. After its unapologetically elitist approach to hiring, Google pampers its engineers-free food and dry cleaning, on-site doctors and masseuses-and gives them all the resources they need to succeed. Even today, with a workforce of more than 23,000, Larry Page signs off on every hire. But has Google lost its innovative edge? It stumbled badly in China-Levy discloses what went wrong and how Brin disagreed with his peers on the China strategy-and now with its newest initiative, social networking, Google is chasing a successful competitor for the first time. Some employees are leaving the company for smaller, nimbler start-ups. Can the company that famously decided not to be evil still compete? No other book has ever turned Google inside out as Levy does with In the Plex.
    Content
    The world according to Google: biography of a search engine -- Googlenomics: cracking the code on internet profits -- Don't be evil: how Google built its culture -- Google's cloud: how Google built data centers and killed the hard drive -- Outside the box: the Google phone company. and the Google t.v. company -- Guge: Google moral dilemma in China -- Google.gov: is what's good for Google, good for government or the public? -- Epilogue: chasing tail lights: trying to crack the social code.
  8. Sherman, C.: Google power : Unleash the full potential of Google (2005) 0.00
    3.5255676E-4 = product of:
      0.001410227 = sum of:
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 3185) [ClassicSimilarity], result of:
              0.004230681 = score(doc=3185,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 3185, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3185)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    With this title, readers learn to push the search engine to its limits and extract the best content from Google, without having to learn complicated code. "Google Power" takes Google users under the hood, and teaches them a wide range of advanced web search techniques, through practical examples. Its content is organised by topic, so reader learns how to conduct in-depth searches on the most popular search topics, from health to government listings to people.
  9. Langville, A.N.; Meyer, C.D.: Google's PageRank and beyond : the science of search engine rankings (2006) 0.00
    3.5255676E-4 = product of:
      0.001410227 = sum of:
        0.001410227 = product of:
          0.004230681 = sum of:
            0.004230681 = weight(_text_:a in 6) [ClassicSimilarity], result of:
              0.004230681 = score(doc=6,freq=8.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.07643694 = fieldWeight in 6, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Content
    Inhalt: Chapter 1. Introduction to Web Search Engines: 1.1 A Short History of Information Retrieval - 1.2 An Overview of Traditional Information Retrieval - 1.3 Web Information Retrieval Chapter 2. Crawling, Indexing, and Query Processing: 2.1 Crawling - 2.2 The Content Index - 2.3 Query Processing Chapter 3. Ranking Webpages by Popularity: 3.1 The Scene in 1998 - 3.2 Two Theses - 3.3 Query-Independence Chapter 4. The Mathematics of Google's PageRank: 4.1 The Original Summation Formula for PageRank - 4.2 Matrix Representation of the Summation Equations - 4.3 Problems with the Iterative Process - 4.4 A Little Markov Chain Theory - 4.5 Early Adjustments to the Basic Model - 4.6 Computation of the PageRank Vector - 4.7 Theorem and Proof for Spectrum of the Google Matrix Chapter 5. Parameters in the PageRank Model: 5.1 The a Factor - 5.2 The Hyperlink Matrix H - 5.3 The Teleportation Matrix E Chapter 6. The Sensitivity of PageRank; 6.1 Sensitivity with respect to alpha - 6.2 Sensitivity with respect to H - 6.3 Sensitivity with respect to vT - 6.4 Other Analyses of Sensitivity - 6.5 Sensitivity Theorems and Proofs Chapter 7. The PageRank Problem as a Linear System: 7.1 Properties of (I - alphaS) - 7.2 Properties of (I - alphaH) - 7.3 Proof of the PageRank Sparse Linear System Chapter 8. Issues in Large-Scale Implementation of PageRank: 8.1 Storage Issues - 8.2 Convergence Criterion - 8.3 Accuracy - 8.4 Dangling Nodes - 8.5 Back Button Modeling
  10. Berry, M.W.; Browne, M.: Understanding search engines : mathematical modeling and text retrieval (2005) 0.00
    2.350378E-4 = product of:
      9.401512E-4 = sum of:
        9.401512E-4 = product of:
          0.0028204536 = sum of:
            0.0028204536 = weight(_text_:a in 7) [ClassicSimilarity], result of:
              0.0028204536 = score(doc=7,freq=2.0), product of:
                0.055348642 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.04800207 = queryNorm
                0.050957955 = fieldWeight in 7, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=7)
          0.33333334 = coord(1/3)
      0.25 = coord(1/4)
    
    Abstract
    The second edition of Understanding Search Engines: Mathematical Modeling and Text Retrieval follows the basic premise of the first edition by discussing many of the key design issues for building search engines and emphasizing the important role that applied mathematics can play in improving information retrieval. The authors discuss important data structures, algorithms, and software as well as user-centered issues such as interfaces, manual indexing, and document preparation. Significant changes bring the text up to date on current information retrieval methods: for example the addition of a new chapter on link-structure algorithms used in search engines such as Google. The chapter on user interface has been rewritten to specifically focus on search engine usability. In addition the authors have added new recommendations for further reading and expanded the bibliography, and have updated and streamlined the index to make it more reader friendly.

Languages