Search (168 results, page 2 of 9)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Libraries and Google (2005) 0.00
    0.0023517683 = product of:
      0.016462378 = sum of:
        0.0137239825 = weight(_text_:bedeutung in 1973) [ClassicSimilarity], result of:
          0.0137239825 = score(doc=1973,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.111146815 = fieldWeight in 1973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.015625 = fieldNorm(doc=1973)
        0.0027383962 = product of:
          0.010953585 = sum of:
            0.010953585 = weight(_text_:j in 1973) [ClassicSimilarity], result of:
              0.010953585 = score(doc=1973,freq=8.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.14042683 = fieldWeight in 1973, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1973)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Content
    Introduction: Libraries and Their Interrelationships with Google - William Miller Disruptive Beneficence: The Google Print Program and the Future of Libraries - Mark Sandler The Google Library Project at Oxford - Ronald Milne The (Uncertain) Future of Libraries in a Google World: Sounding an Alarm - Rick Anderson A Gaggle of Googles: Limitations and Defects of Electronic Access as Panacea - -Mark Y. Herring Using the Google Search Appliance for Federated Searching: A Case Study - Mary Taylor Google's Print and Scholar Initiatives: The Value of and Impact on Libraries and Information Services - Robert J. Lackie Google Scholar vs. Library Scholar: Testing the Performance of Schoogle - Burton Callicott; Debbie Vaughn Google, the Invisible Web, and Librarians: Slaying the Research Goliath - Francine Egger-Sider; Jane Devine Choices in the Paradigm Shift: Where Next for Libraries? - Shelley E. Phipps; Krisellen Maloney Calling the Scholars Home: Google Scholar as a Tool for Rediscovering the Academic Library - Maurice C. York Checking Under the Hood: Evaluating Google Scholar for Reference Use - Janice Adlington; Chris Benda Running with the Devil: Accessing Library-Licensed Full Text Holdings Through Google Scholar - Rebecca Donlan; Rachel Cooke Directing Students to New Information Types: A New Role for Google in Literature Searches? - Mike Thelwall Evaluating Google Scholar as a Tool for Information Literacy Rachael Cathcart - Amanda Roberts Optimising Publications for Google Users - Alan Dawson Google and Privacy - Paul S. Piper Image: Google's Most Important Product - Ron Force Keeping Up with Google: Resources and Strategies for Staying Ahead of the Pack - Michael J. Krasulski; Steven J. Bell
    Footnote
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
    Weitere Rez. in JASIST 59(2008) H.9, S.1531-1533 (J. Satyanesan): "Libraries and Google is an interesting and enlightening compilation of 18 articles on Google and its impact on libraries. The topic is very current, debatable, and thought provoking. Google has profoundly empowered individuals and transformed access to information and librarians are very much concerned about its popularity and visibility. In this book, the leading authorities discuss the usefulness of Google, its influence and potential menace to libraries, and its implications for libraries and the scholarly communication. They offer practical suggestions to cope with the changing situation. The articles are written from different perspective and express all shades of opinion, both hopeful and fearful. One can discern varied moods-apprehension, resignation, encouragement, and motivation-on the part of the librarians. This is an important book providing a wealth of information for the 21st century librarian. There is a section called "Indexing, Abstracting & Website/Internet Coverage," which lists major indexing and abstracting services and other tools for bibliographic access. The format of the articles is uniform with an introduction, key words, and with the exception of two articles the rest have summaries and conclusions. References and notes of varying lengths are included in each article. This book has been copublished simultaneously as Internet Reference Quarterly, 10(3/4), 2005. Although there are single articles written on Google and libraries, this is the first book-length treatment of the topic.
  2. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.00
    0.0021561687 = product of:
      0.01509318 = sum of:
        0.0137239825 = weight(_text_:bedeutung in 312) [ClassicSimilarity], result of:
          0.0137239825 = score(doc=312,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.111146815 = fieldWeight in 312, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
        0.0013691981 = product of:
          0.0054767923 = sum of:
            0.0054767923 = weight(_text_:j in 312) [ClassicSimilarity], result of:
              0.0054767923 = score(doc=312,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.070213415 = fieldWeight in 312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 57(2006) H.3, S.177-178 (D. Lewandowski): "Wohl unbestritten ist, dass die Suche in Informationsbeständen eine immer größere Bedeutung erhält. Wir suchen nicht nur noch explizit, indem wir ein Informationssystem anwählen und dort eine Suche absetzen, sondern verwenden Suchfunktionen innerhalb von Programmen, auf Websites, innerhalb des Betriebssystems unseres Computers oder sogar ziemlich unbewusst, indem wir Informationen maßgeschneidert aufgrund einer einmal hinterlegten Suche oder eines automatisch erstellten Suchprofils erhalten. Man kann also in der Tat davon sprechen, dass wir von der Suche umgeben werden. Das ist mit dem Konzept der "Ambient Findability" gemeint. Angelehnt ist diese Bezeichnung an den Begriff der "Ambient Music" (in den 70er Jahren durch Brian Eno geprägt), die den Hörer umgibt und von ihm oft gar nicht aktiv wahrgenommen wird. Um eine Vorstellung von dieser Musik zu bekommen, eignet sich vielleicht am besten der Titel einer Platte eben von Brian Eno: "Music for Airports". Peter Morville, bekannt als Co-Autor des empfehlenswerten Buchs "Information Architecture for the World Wide Web"', hat sich nun mit der Veränderung der Suche auseinandergesetzt. Sein Buch bedient sich in ganz unterschiedlichen Disziplinen, um die Prozesse des Suchens, Stöberns und Findens aufzuzeigen. So finden sich Betrachtungen über die Orientierung des Menschen in unbekannten Umgebungen, über die Interaktion mit Informationssystemen, über das soziale Verhalten der Web-Nutzer (Stichworte: Content-Tagging, Folksonomies, Social Networking) und über technische Veränderungen durch die Verfügbarkeit von Informationssystemen in allen Lebenskontexten, vor allem auch über mobile Endgeräte. Das Buch ist in sieben Kapitel gegliedert. Das erste, "Lost and Found" betitelt, bietet auf wenigen Seiten die Definitionen der zentralen Begriffe ambient und findability, erläutert kurz das Konzept der Information Literacy und zeigt, dass die bessere Auffindbarkeit von Informationen nicht nur ein schöner Zusatznutzen ist, sondern sich für Unternehmen deutlich auszahlt.
    Das zweite Kapitel ("A Brief History of Wayfinding") beschreibt, wie Menschen sich in Umgebungen zurechtfinden. Dies ist insofern interessant, als hier nicht erst bei Informationssystemen oder dem WWW begonnen wird, sondern allgemeine Erkenntnisse beispielsweise über die Orientierung in natürlichen Umgebungen präsentiert werden. Viele typische Verhaltensweisen der Nutzer von Informationssystemen können so erklärt werden. So interessant dieses Thema allerdings ist, wirkt das Kapitel leider doch nur wie eine Zusammenstellung von Informationen aus zweiter Hand. Offensichtlich ist, dass Morville nicht selbst an diesen Themen geforscht hat, sondern die Ergebnisse (wenn auch auf ansprechende Weise) zusammengeschrieben hat. Dieser Eindruck bestätigt sich auch in weiteren Kapiteln: Ein flüssig geschriebener Text, der es jedoch an einigen Stellen an Substanz fehlen lässt. Kapitel drei, "Information Interaction" beginnt mit einem Rückgriff auf Calvin Mooers zentrale Aussage aus dem Jahre 1959: "An information retrieval system will tend not to be used whenever it is more painful and troublesome for a customer to have information than for him not to have it." In der Tat sollte man sich dies bei der Erstellung von Informationssystemen immer vergegenwärtigen; die Reihe der Systeme, die gerade an dieser Hürde gescheitert sind, ist lang. Das weitere Kapitel führt in einige zentrale Konzepte der Informationswissenschaft (Definition des Begriffs Information, Erläuterung des Information Retrieval, Wissensrepräsentation, Information Seeking Behaviour) ein, allerdings ohne jeden Anspruch auf Vollständigkeit. Es wirkt vielmehr so, dass der Autor sich die gerade für sein Anliegen passenden Konzepte auswählt und konkurrierende Ansätze beiseite lässt. Nur ein Beispiel: Im Abschnitt "Information Interaction" wird relativ ausführlich das Konzept des Berrypicking nach Marcia J. Bates präsentiert, allerdings wird es geradezu als exklusiv verkauft, was es natürlich bei weitem nicht ist. Natürlich kann es nicht Aufgabe dieses Buchs sein, einen vollständigen Überblick über alle Theorien des menschlichen Suchverhaltens zu geben (dies ist an anderer Stelle vorbildlich geleistet worden'), aber doch wenigstens der Hinweis auf einige zentrale Ansätze wäre angebracht gewesen. Spätestens in diesem Kapitel wird klar, dass das Buch sich definitiv nicht an Informationswissenschaftler wendet, die auf der einen Seite mit den grundlegenden Themen vertraut sein dürften, andererseits ein wenig mehr Tiefgang erwarten würden. Also stellt sich die Frage - und diese ist zentral für die Bewertung des gesamten Werks.
  3. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    0.0021223782 = product of:
      0.029713294 = sum of:
        0.029713294 = weight(_text_:bedeutung in 3576) [ClassicSimilarity], result of:
          0.029713294 = score(doc=3576,freq=6.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.24063991 = fieldWeight in 3576, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.071428575 = coord(1/14)
    
    Abstract
    Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
    Content
    Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
  4. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.00
    0.001960569 = product of:
      0.027447965 = sum of:
        0.027447965 = weight(_text_:bedeutung in 4093) [ClassicSimilarity], result of:
          0.027447965 = score(doc=4093,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=4093)
      0.071428575 = coord(1/14)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
  5. Alby, T.; Karzauninkat, S.: Suchmaschinenoptimierung : professionelles Website-Marketing für besseres Ranking ; [berücksichtigt Google Analytics] (2007) 0.00
    0.001960569 = product of:
      0.027447965 = sum of:
        0.027447965 = weight(_text_:bedeutung in 35) [ClassicSimilarity], result of:
          0.027447965 = score(doc=35,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 35, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=35)
      0.071428575 = coord(1/14)
    
    Abstract
    Mit Suchmaschinenoptimierung. Professionelles Website-Marketing für besseres Ranking liefern Stefan Karzauninkat und Tom Alby einen sauberen Überblick über Grundlagen, Gründe, Maßnahmen und Zielsetzungen von suchmaschinenoptierten Websites. Essentielles Internet-Wissen auf dem aktuellen Stand. Karzauninkat und Alby widmen ihr Buch Entscheidern, Konzeptionern, Designern und Webmastern, die ihre Website, ob neu oder alt, im Gesamtzusammenhang des Internet sehen und verstehen wollen. Suchmaschinen sind und waren dabei schon immer ein wesentlicher Faktor, denn sie sind die Instanz, die eine Website und deren Informationen findet, wenn sie gesucht wird. Die Sucharbeit der Maschinen kann man ignorieren, behindern oder unterstützen -- wenn man weiß wie. Karzauninkat und Alby haben ihr Wissen praktisch erworben. Vor allem Karzauninkat kann zahlreiche Internetprojekt vorweisen, zu denen auch die bekannte und viel besuchte Suchmaschinen-Website www.suchfibel.de gehört. Ziel der beiden Autoren ist es, ein allgemeines Verständnis für die Such- und Gefundenwelt des Internet und dauerhafte und anhaltende Maßnahmen für die gefunden-werden-Bilanz sowie die Platzierung innerhalb der Liste der gefundenen Suchergebnisse zu vermitteln. Überzeugen, erklären und zeigen lautet die Devise: Am Anfang steht eine Einführung mit dem Titel "Wozu das Ganze". Argumentationsstoff und Fakten für den folgenden Aufwand. Darauf folgt die Website-Optimierung als Teil der Unternehmenskommunikation und dieses Kapitel zeigt auch einen Fokus der beiden: Verkaufen. Nun gut, welcher Zweck auch immer, die Mittel sind immer die gleichen. Als nächstes stellen sie Suchmaschinen und ihre Funktionsweise vor, bevor sie sich dann dem Kern ihres Buches widmen: die Optimierung zur Positionsverbesserung. Hier entschlüsseln sie die Bedeutung von Inhalt, erklären kurz die technischen Belange und zeigen wo es Probleme und Widerstände geben kann. Auch professionelle Dienstleister für die Website-Optimierung nehmen sie unter die Lupe. Zuletzt dann Suchmaschinenmarketing, laufende Maßnahmen zur Erfolgskontrolle und dann noch sechs kurze Fallbeispiele. Ebenso bieten sie ein Glossar und einen Anhang mit Server-Response-Codes, Agents und Meta-Tags sowie weiterführende Literatur und Weblinks. Übrigens steht den Druck-Käufern das gesamte Buch auch als eBook zur Verfügung! Suchmaschinenoptimierung ist ein guter, locker geschriebener und leicht zu lesender, vor allem aktueller Überblick mit einem Gespür für die Fragen und Bedürfnisse der Zielgruppe von Entscheider bis Webmaster. Wer Suchmaschinen-Verständnis ohne technische Überlastung sucht, liest hier zufrieden.
  6. Bundenthal, A.: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF (2007) 0.00
    0.001960569 = product of:
      0.027447965 = sum of:
        0.027447965 = weight(_text_:bedeutung in 368) [ClassicSimilarity], result of:
          0.027447965 = score(doc=368,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=368)
      0.071428575 = coord(1/14)
    
    Abstract
    Ein Gespenst geht um in Europa, das Schreckgespenst der Dominanz einer profitorientierten Suchmaschine aus den USA, die das Wissen im alten Europa bedroht - Google. >Google, Word, Kleenex<: Diese Produktnamen stehen heute in einer Reihe, ein Produkt wurde zum Gattungsbegriff. Das Verb >googeln< wurde in den Duden aufgenommen und damit >geadelt<. Aber obwohl Google >Don't be evil< als inoffizielles Firmenmotto führt, schwingt das Medienecho zwischen Vergötterung und Verteufelung. Google werden die weitgehende Monopolstellung, Beeinflussung der Rechercheergebnisse, das Horten von vertraulichen Benutzerdaten, Anglozentrismus und Zensur vorgeworfen. Welche Bedeutung haben Internet, World Wide Web, Browser und Suchmaschinen heute für die Recherche der Journalisten und der Dokumentationsbereiche im ZDF? Als ein Kollege im Jahr 1992 aus den USA zurück in das ZDF-Sendezentrum nach Mainz kam, berichtete er von den dortigen Erfahrungen mit dem Internet und versuchte uns zu überzeugen, dass dieses Netz und die damit verbundenen Methoden die Informationswelt umkrempeln würden - er überzeugte uns, nicht aber bezüglich des Zeitrahmens. Wir unterlagen dem Irrtum, es werde noch einige Jahre dauern. Widergespiegelt findet sich der raketengleiche Aufschwung des Internets zum Beispiel in der ZDF-Agenturdatenbank: In den ersten 1990er-Jahren liegt nahezu kein Eintrag >Internet< vor, jedoch ab 1995 schoss die Zahl der Einträge rasant in die Höhe und erreichte mit der New-Economy-Euphorie im Jahr woo einen ersten Höhepunkt mit knapp 14.000 Nennungen. Das ZDF hat die publizistischen Möglichkeiten schnell erkannt und baute ab 1996 zügig eigene Online-Angebote auf - bereits zuvor nutzten die Journalisten und die Dokumentare das Internet für ihre Arbeit. Waren es zunächst nur einige wenige Neugierige, so sprach sich bald die Leistungsfähigkeit des Internets herum, auch wenn es zunächst noch mühsam in der Handhabung war. Wer sich dort zurecht fand, hatte einen Wissensvorsprung, konnte weltweit an jedem Platz Informationen einholen und aktueller arbeiten. Mit einer parallel ablaufenden Verjüngung des redaktionellen Mitarbeiterstabs in den Rundfunkhäusern verbreitete sich auch zunehmend das Wissen, wie erfolgreich im Internet recherchiert werden kann. Die jüngeren Journalisten kennen die Werkzeuge und interessante Websites bereits von der Universität, und heute benutzen alle recherchierenden Journalisten und Archivare im ZDF für die Vorbereitung der Berichterstattung und für die Themensuche in nahezu jedem Fall auch das Internet - und mit der Maus wird dabei meist für Google abgestimmt, während früher AltaVista, Lycos oder Yahoo! bevorzugt wurden. Wie in einer Studie nett formuliert wurde: »Without much exaggeration one could say that to exist is to be indexed by a search engine«.
  7. Kink, N.; Hess, T.: Suchmaschinen als Substitut traditioneller Medien? : Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen (2007) 0.00
    0.001960569 = product of:
      0.027447965 = sum of:
        0.027447965 = weight(_text_:bedeutung in 390) [ClassicSimilarity], result of:
          0.027447965 = score(doc=390,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 390, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
      0.071428575 = coord(1/14)
    
    Abstract
    Das Internet hat sich in den letzten Jahren rasant verbreitet und zählt weltweit über eine Milliarde Nutzer. Parallel dazu haben Suchmaschinen den Informationsmarkt erobert. Sie sind mittlerweile nicht mehr >nur< der zentrale Zugangsweg zum umfangreichen Informationsangebot des Internets, sondern haben darüber hinaus nachhaltige Wirkung auf die Medienbranche. Allein auf die Suchmaschine Google greifen monatlich ca. 380 Millionen Informationssuchende zu (vgl. Google 2006). Der Börsengang des SuchmaschinenAnbieters spiegelt die wachsende Bedeutung wider. Auch empirische Studien belegen, dass Suchmaschinen zunehmend in den Alltag integriert werden, eine Gatekeeper-Funktion wahrnehmen und dadurch die Informationsbeschaffung grundlegend ändern können. Da die zunehmende Verbreitung von Suchmaschinen mit einer Verdrängung alternativer Medienangebote einhergehen kann, hat diese Entwicklung auch das Interesse traditioneller Medienunternehmen geweckt. Allerdings wurden die Folgen für Medienanbieter bislang kaum erforscht. Mit unserer empirischen Studie wollen wir genau diese Forschungslücke verkleinern. Im Vordergrund stehen Fragestellungen zur Beurteilung und Anwendung von Suchmaschinen aus Nutzersicht und den sich daraus ergebenden Konsequenzen für traditionelle Medienanbieter. Konkret sollen erste Anhaltspunkte dafür gewonnen werden, welche Medien' Informationssuchende durch den Gebrauch von Suchmaschinen, ersetzen, welche sie ergänzend nutzen und warum. Aufgrund des relativ neuen Forschungsgebiets haben wir zur Untersuchung der Fragestellungen qualitative Forschungsmethoden eingesetzt, die einen umfassenden Überblick über das Untersuchungsgebiet schaffen. Es wurde ein Leitfaden konzipiert, anhand dessen den Befragten in einer trichterförmig angeordneten Reihenfolge mehrere offene Fragen gestellt wurden. Diese trichterförmige Anordnung - angefangen bei allgemeinen bis hin zu gezielten Fragen - stellte sicher, dass die Interviewpartner ihre persönliche Meinung uneingeschränkt äußern konnten und erlaubte gleichzeitig eine Quantifizierung der konkreten Antworten. Nach erfolgreichem Pretest wurde das Leitfadeninterview im Sommer 2005 mit 19 Personen durchgeführt. Unsere Stichprobe setzt sich aus acht Experten aus thematiknahen Berufen und elf Studenten unterschiedlicher Studienrichtungen zusammen. Zu den Experten zählen Unternehmensberater, Praktiker und Wissenschaftler aus dem Medienbereich. Die Studenten stammen aus den Fachrichtungen Informatik, BWL und Psychologie. Alle ca. 50-minütigen Interviews wurden mit einem Diktiergerät aufgezeichnet und wortwörtlich transkribiert. Anhand eines Excel-basierten Codeplans wurden die Aussagen diversen Haupt- und Unterkategorien zugeordnet und in ausgewählten Kategorien Häufigkeiten berechnet. Wie bei qualitativen Verfahren üblich, wurde auf Statement-Basis ausgewertet, sodass die Summe der Statements die Anzahl an Befragten übersteigen kann. Um den Aussagen Einzelner kein zu großes Gewicht zu geben, wurden wiederholte Aussagen zu einer Kategorie nur einfach gewertet. Die Ergebnisse der Befragung werden nachfolgend vorgestellt und eingeordnet.
  8. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.00
    0.001960569 = product of:
      0.027447965 = sum of:
        0.027447965 = weight(_text_:bedeutung in 3023) [ClassicSimilarity], result of:
          0.027447965 = score(doc=3023,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=3023)
      0.071428575 = coord(1/14)
    
    Abstract
    Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
  9. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.00
    0.0017329145 = product of:
      0.024260802 = sum of:
        0.024260802 = weight(_text_:bedeutung in 1671) [ClassicSimilarity], result of:
          0.024260802 = score(doc=1671,freq=4.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19648166 = fieldWeight in 1671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
      0.071428575 = coord(1/14)
    
    Content
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
  10. Schröter, H.G.: Microsoft lockt mit Rabatt : Neuer Dienst für Suchmaschinen-Nutzer / Google baut Führung aus (2008) 0.00
    0.0017154978 = product of:
      0.024016969 = sum of:
        0.024016969 = weight(_text_:bedeutung in 1876) [ClassicSimilarity], result of:
          0.024016969 = score(doc=1876,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 1876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1876)
      0.071428575 = coord(1/14)
    
    Content
    "Wir glauben, dass die Suche Verbrauchern und Werbetreibenden weit mehr bieten kann als heute üblich ist", erklärte Microsoft-Mitgründer Bill Gates. Live Search Cashback werde Anzeigenkunden beim Online-Verkauf helfen und Konsumenten einen neuen Weg bieten, mehr aus ihren Dollars zu machen. "Wir wollen Ihre Treue gewinnen", erfahren Interessenten, die sich auf der US-Website über das Cashback-Programm schlau machen wollen. Ob Microsoft den neuen Dienst gegebenenfalls auch außerhalb der USA einführen wird, sei nicht entschieden, teilt der hiesige Ableger mit. Der große Abstand der Microsoft-Suche Live Search zum Marktführer Google war der Hauptgrund dafür, dass der weltweit größte Software-Konzern einen Übernahmevorschlag für Yahoo vorlegte. Die Nummer zwei am US-Suchmarkt befand das Angebot von zuletzt 47,5 Milliarden Dollar aber als zu niedrig. Microsoft zog die Offerte Anfang Mai zurück. Seither reißen die Spekulationen nicht ab, dass Microsoft es nun lediglich auf das Suchmaschinengeschäft von Yahoo und eine Minderheitsbeteiligung an dem Internet-Konzern abgesehen habe. Ob der neue Rabatt-Ansatz bei der Produktsuche Microsoft den erhofften Erfolg bescheren wird, ist noch nicht ausgemacht. Zwar hat der Konzern eine lange Liste von Händlern gewonnen, die mitmachen wollen. Doch fraglich bleibt, ob Preisnachlässe beim Online-Shopping verlockend genug sind, damit Internetnutzer massenhaft zu Live Search wechseln. Nicht ohne Grund liegt Google in der Gunst der Surfer weit vorn. An der überlegenen Technologie des Branchenführers ändert das Cashback-Programm nichts. Es könnte aber an Bedeutung gewinnen, wenn Microsoft die Yahoo-Suchmaschine schlucken würde. Und es könnte ein Versuch sein, dem Erzrivalen Google das Leben so schwer wie möglich zu machen, obwohl die Anzeigen-Einnahmen aus dem Cashback-Programm ja den Online-Käufern und nicht Microsoft zufließen sollen. Findet der Microsoft-Konzern nämlich genug Händler für sein Rabatt-Modell, dann könnte er Werbedollar von Google abziehen."
  11. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.00
    0.0017154978 = product of:
      0.024016969 = sum of:
        0.024016969 = weight(_text_:bedeutung in 3378) [ClassicSimilarity], result of:
          0.024016969 = score(doc=3378,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 3378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3378)
      0.071428575 = coord(1/14)
    
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
  12. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.00
    0.0017154978 = product of:
      0.024016969 = sum of:
        0.024016969 = weight(_text_:bedeutung in 5912) [ClassicSimilarity], result of:
          0.024016969 = score(doc=5912,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.071428575 = coord(1/14)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  13. dpa: Yahoo schließt nun ein Bündnis mit Google : Fusionsgespräche mit dem Software-Riesen Microsoft wurden endgültig abgesagt (2008) 0.00
    0.0017154978 = product of:
      0.024016969 = sum of:
        0.024016969 = weight(_text_:bedeutung in 1927) [ClassicSimilarity], result of:
          0.024016969 = score(doc=1927,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 1927, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1927)
      0.071428575 = coord(1/14)
    
    Content
    "Nach dem endgültigen Scheitern von Microsofts Übernahmeplänen für Yahoo hat sich der Internet-Konzern mit dem Suchmaschinen-Spezialisten Google verbündet. Yahoo wird von Google verkaufte Werbung auf einigen seiner Webseiten platzieren, teilten die Unternehmen mit. Die Kooperation könne Yahoo rund 800 Millionen Dollar (517 Millionen Euro) jährlich einbringen, hieß es. Angesichts der Dominanz von Google in der Internet-Werbung dürfte die Partnerschaft eine ausführliche Prüfung durch die Wettbewerbsaufsicht auslösen. Erwartet wird, dass Microsoft kartellrechtlich gegen die Kooperation vorgehen wird -- mit dem Hinweis, dass Google und Yahoo gemeinsam eine marktbeherrschende Stellung einnähmen. Die beiden Partner planten von sich aus bereits eine Überprüfungsfrist von dreieinhalb Monaten vor dem Inkrafttreten ihrer Vereinbarung ein. Die Kooperation mit Google wurde unmittelbar nach Bekanntgabe des endgültigen Scheiterns der Gespräche mit Microsoft angekündigt. Yahoo hatte zuvor mitgeteilt, nach etlichen Treffen beider Seiten habe sich ergeben, dass der Software-Riese Microsoft kein weiteres Interesse an einer Gesamtübernahme von Yahoo habe. Einen Verkauf nur des Suchmaschinen-Geschäfts habe der Yahoo-Verwaltungsrat abgelehnt, weil dieser Bereich für die Zukunft des Unternehmens von entscheidender Bedeutung sei.
  14. cw: ¬Die Google-Falle (2008) 0.00
    0.0017154978 = product of:
      0.024016969 = sum of:
        0.024016969 = weight(_text_:bedeutung in 2204) [ClassicSimilarity], result of:
          0.024016969 = score(doc=2204,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 2204, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2204)
      0.071428575 = coord(1/14)
    
    Content
    "Einer der ersten Journalisten, der sich kritisch mit Google auseinander gesetzt hat, ist Gerald Reischl. Er hinterfragte gängige Praktiken Googles, analysierte Fakten und wertete Stellungsnahmen aus, so dass er zum Schluss kam, dass Google "die unkontrollierte Weltmacht im Internet ist". Zu seinem Buch, "Die Google Falle", meint Reischl, "Das Buch soll zur Bewusstseinsbildung beitragen und aufzeigen, in welchem Zwiespalt Internet-Nutzer leben, welche Versäumnisse Europa gemacht hat und worauf wir achten sollten, wenn wir das Internet für unsere Zwecke nutzen." Datensammlung Worin liegt aber die Gefahr von Google? Alleine die Fakten, dass Google der eifrigste Datensammler der Welt ist und rund 2.000 Patente, unter anderem auf Methoden, wie User verfolgt, analysiert und kategorisiert werden können, besitzt, lassen schon Gefahrenherde erahnen. Das Einsammeln von Daten wird Google dabei leicht gemacht, wendet das Unternehmen doch den "Gratis Trick" an. Denn fast alle Google-Dienste sind kostenlos zu nutzen. Als Gegenzug beschafft sich Google Informationen. Schließlich gibt der Internetuser mit jeder Suchanfrage, jedem Mail oder jeder Routenplanung Informationen von sich preis, die Google helfen, den User zu analysieren und so die Werbeeinnahmen und Profite zu erhöhen. Auf der anderen Seite versteht Google dieses Sammeln von Informationen aber auch als Dienst an dem User. Insbesondere für den Suchalgorithmus kann es von Bedeutung sein, mehr über den Nutzer zu wissen, um ihn mit den besten Suchtreffern zu "entschädigen". Vor allem in Zeiten des semantischen Webs sollen auch die Suchergebnisse in Zukunft personalisiert werden. Ein diesbezügliches Patent ("Programmable Search Engine", kurz PSE) wurde bereits eingereicht.
  15. Nicholson, S.; Sierra, T.; Eseryel, U.Y.; Park, J.-H.; Barkow, P.; Pozo, E.J.; Ward, J.: How much of it is real? : analysis of paid placement in Web search engine results (2006) 0.00
    0.0015425638 = product of:
      0.021595892 = sum of:
        0.021595892 = product of:
          0.043191783 = sum of:
            0.023236064 = weight(_text_:j in 5278) [ClassicSimilarity], result of:
              0.023236064 = score(doc=5278,freq=4.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.2978903 = fieldWeight in 5278, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5278)
            0.01995572 = weight(_text_:22 in 5278) [ClassicSimilarity], result of:
              0.01995572 = score(doc=5278,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 5278, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5278)
          0.5 = coord(2/4)
      0.071428575 = coord(1/14)
    
    Date
    22. 7.2006 16:32:57
  16. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.00
    0.0014704268 = product of:
      0.020585975 = sum of:
        0.020585975 = weight(_text_:bedeutung in 1475) [ClassicSimilarity], result of:
          0.020585975 = score(doc=1475,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.16672023 = fieldWeight in 1475, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.071428575 = coord(1/14)
    
    Abstract
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.
  17. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.00
    0.0014704268 = product of:
      0.020585975 = sum of:
        0.020585975 = weight(_text_:bedeutung in 3183) [ClassicSimilarity], result of:
          0.020585975 = score(doc=3183,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.16672023 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.071428575 = coord(1/14)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
  18. Günzel, C.: Wir sind die Guten! : Das Google-Monopol? (2006) 0.00
    0.0014704268 = product of:
      0.020585975 = sum of:
        0.020585975 = weight(_text_:bedeutung in 4732) [ClassicSimilarity], result of:
          0.020585975 = score(doc=4732,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.16672023 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4732)
      0.071428575 = coord(1/14)
    
    Content
    "Mit 30 Milliarden Seiten im Index sortiert Google inzwischen das, was die Welt wissen will. Die Firma will drahtlose InternetZugänge gratis anbieten, treibt die Entwicklung der kostenfreien Bürosoftware Open Office voran und speichert in Zukunft vielleicht Texte und Dokumente im Internet. Die Kalifornier kauften sich in den letzten Jahren mehr als ein Dutzend Technologiefirmen zusammen. Das Usenet-Archiv Dejanews verleibte sich das Unternehmen ebenso ein wie WeblogAnbieter Pyra Labs (Blogger.com), den Bilderdienst Picasa, Satellitenfoto-Anbieter Keyhole oder Dodgeball, eine Social Software für Handys, mit der einsame Mobiltelefonierer Freunde finden (www.internetmarketing-news.de/2005/11/06/die-uebernahmen-von-google). Viele Beobachter des Suchmarktes sehen mit Sorge auf diese um sich greifende Marktmacht, während Google zunehmend Probleme mit dem Image bekommt. Von schmutzigen Dingen ist die Rede: Google soll Kunden ausspionieren, private Daten horten, ein gefährliches Monopol errichten - einzig mit dem Ziel, auf jede Lebenslage perfekt zugeschnittene Werbung zu verkaufen. Sogar Microsoft, der Software-Gigant und Herrscher über die Betriebssysteme von Milliarden Computern, erscheint manchem plötzlich in milderem Licht. Und selbst das hehre Ziel, 15 Millionen Bücher online zugänglich zu machen, fliegt Google um die Ohren: Nicht um das Aufpolieren verstaubten Wissens aus fünf Bibliotheken ginge es, schimpfen die Kritiker. Nein, Google wolle Kontrolle über geistiges Eigentum gewinnen (print.google.de). "Suchmaschinen sind Knotenpunkte der Meinungsbildung, keine neutralen Dienstleister", mahnt Wolfgang Schulz, Direktordes Hamburger Hans-Bredow-Instituts für Medienforschung (siehe Interview). Googles Algorithmus, sein Suchverfahren, ist eine Interpretation von Netzrealität und beeinflusst die öffentliche Kommunikation, glaubt der Jurist: "Was auf den Google-Ergebnislisten auftaucht oder nicht, hat Bedeutung. Nur, wer es auf die ersten zehn Listenplätze von Google schafft, existiert." Nur reichlich neun Prozent der Internet-Nutzer klicken sich weiter auf Seite 2 der Trefferlisten, weitere knapp sechs Prozent schaffen es bis zur dritten Seite.
  19. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.00
    0.0014704268 = product of:
      0.020585975 = sum of:
        0.020585975 = weight(_text_:bedeutung in 52) [ClassicSimilarity], result of:
          0.020585975 = score(doc=52,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.16672023 = fieldWeight in 52, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
      0.071428575 = coord(1/14)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
  20. Large, A.; Beheshti, J.; Rahman, T.: Design criteria for children's Web portals : the users speak out (2002) 0.00
    0.0012995036 = product of:
      0.01819305 = sum of:
        0.01819305 = product of:
          0.0363861 = sum of:
            0.016430378 = weight(_text_:j in 197) [ClassicSimilarity], result of:
              0.016430378 = score(doc=197,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.21064025 = fieldWeight in 197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=197)
            0.01995572 = weight(_text_:22 in 197) [ClassicSimilarity], result of:
              0.01995572 = score(doc=197,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 197, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=197)
          0.5 = coord(2/4)
      0.071428575 = coord(1/14)
    
    Date
    2. 6.2005 10:34:22

Languages

  • d 106
  • e 60
  • nl 2
  • More… Less…

Types

  • a 146
  • m 14
  • el 7
  • x 5
  • s 2
  • More… Less…