Literatur zur Informationserschließung
Diese Datenbank enthält über 40.000 Dokumente zu Themen aus den Bereichen Formalerschließung – Inhaltserschließung – Information Retrieval.
© 2015 W. Gödert, TH Köln, Institut für Informationswissenschaft
/
Powered by litecat, BIS Oldenburg
(Stand: 28. April 2022)
Suche
Suchergebnisse
Treffer 1–20 von 118
sortiert nach:
-
1Martínez-Ávila, D. ; Chaves Guimarães, J.A. ; Pinho, F.A. ; Fox, M.J.: ¬The representation of ethics and knowledge organization in the WoS and LISTA databases.
In: Knowledge organization. 42(2015) no.5, S.269-275.
Abstract: A naïve user seeking introductory information on a topic may perceive a domain as it is shown by the search results in a database; however, inconsistencies in indexing can misrepresent the full picture of the domain by including irrelevant documents or omitting relevant ones, sometimes inexplicably. A bibliometric analysis was conducted on the domain of ethics in knowledge organization in the World of Science (WoS) and Library, Information Science & Technology Abstracts (LISTA) databases to discern how it is being presented by search results in those databases and to attempt to determine why inconsistencies occurred.
Inhalt: Beitrag anlässlich: Proceedings of the 3rd Milwaukee Conference on Ethics in Knowledge Organization, May 28-29, 2015, University of Wisconsin-Milwaukee, USA. Vgl.: http://www.ergon-verlag.de/isko_ko/downloads/ko_42_2015_5.
Themenfeld: Informationsmittel
Objekt: World of Science ; LISTA
-
2Bidoki, A.M.Z. ; Yazdani, N.: an intelligent ranking algorithm for web pages : DistanceRank.
In: Information processing and management. 44(2008) no.2, S.877-892.
Abstract: A fast and efficient page ranking mechanism for web crawling and retrieval remains as a challenging issue. Recently, several link based ranking algorithms like PageRank, HITS and OPIC have been proposed. In this paper, we propose a novel recursive method based on reinforcement learning which considers distance between pages as punishment, called "DistanceRank" to compute ranks of web pages. The distance is defined as the number of "average clicks" between two pages. The objective is to minimize punishment or distance so that a page with less distance to have a higher rank. Experimental results indicate that DistanceRank outperforms other ranking algorithms in page ranking and crawling scheduling. Furthermore, the complexity of DistanceRank is low. We have used University of California at Berkeley's web for our experiments.
Themenfeld: Retrievalalgorithmen
Objekt: DistanceRank
-
3Gil-Leiva, I. ; Alonso-Arroyo, A.: Keywords given by authors of scientific articles in database descriptors.
In: Journal of the American Society for Information Science and Technology. 58(2007) no.8, S.1175-1187.
Abstract: In this article, the authors analyze the keywords given by authors of scientific articles and the descriptors assigned to the articles to ascertain the presence of the keywords in the descriptors. Six-hundred forty INSPEC (Information Service for Physics, Engineering, and Computing), CAB (Current Agriculture Bibliography) abstracts, ISTA (Information Science and Technology Abstracts), and LISA (Library and Information Science Abstracts) database records were consulted. After detailed comparisons, it was found that keywords provided by authors have an important presence in the database descriptors studied; nearly 25% of all the keywords appeared in exactly the same form as descriptors, with another 21% though normalized, still detected in the descriptors. This means that almost 46% of keywords appear in the descriptors, either as such or after normalization. Elsewhere, three distinct indexing policies appear, one represented by INSPEC and LISA (indexers seem to have freedom to assign the descriptors they deem necessary); another is represented by CAB (no record has fewer than four descriptors and, in general, a large number of descriptors is employed). In contrast, in ISTA, a certain institutional code exists towards economy in indexing because 84% of records contain only four descriptors.
Themenfeld: Indexierungsstudien
Wissenschaftsfach: Physik ; Agrarwissenschaften ; Bibliothekswesen ; Informationswissenschaft ; Informatik
Objekt: INSPEC ; ISTA ; LISA ; CAB
-
4Roberts, J.R. ; Drost, C.A.: Library, Information Science and Technology Abstracts.
In: College and research libraries news. 67(2006) no.2, S.110-111.
Abstract: The article focuses on the EBSCO databases that provide services to libraries. The Library, Information Science and Technology Abstracts (LISTA) include resources focusing on librarianship, classification, cataloging, bibliometrics, online information retrieval, and information science. LISTA has more than 21,000 articles from more than 600 periodicals and includes more than 5,000 conference papers and reports. In the database, there are also cited references and the number of times the source was used can also be found within the database. These are helpful tips in bibliography researching. The database has also several search options including "Basic Search," "Advanced Search," and Indexes." The EBSCOhost interface is simple to use and easy to grasp while LISTA is a free abstract database.
Themenfeld: Informationsmittel ; Bibliographie
Wissenschaftsfach: Bibliothekswesen ; Informationswissenschaft
Objekt: LISTA
-
5Spink, A. ; Park, M. ; Jansen, B.J. ; Pedersen, J.: Elicitation and use of relevance feedback information.
In: Information processing and management. 42(2006) no.1, S.264-275.
Abstract: A user's single session with a Web search engine or information retrieval (IR) system may consist of seeking information on single or multiple topics, and switch between tasks or multitasking information behavior. Most Web search sessions consist of two queries of approximately two words. However, some Web search sessions consist of three or more queries. We present findings from two studies. First, a study of two-query search sessions on the AltaVista Web search engine, and second, a study of three or more query search sessions on the AltaVista Web search engine. We examine the degree of multitasking search and information task switching during these two sets of AltaVista Web search sessions. A sample of two-query and three or more query sessions were filtered from AltaVista transaction logs from 2002 and qualitatively analyzed. Sessions ranged in duration from less than a minute to a few hours. Findings include: (1) 81% of two-query sessions included multiple topics, (2) 91.3% of three or more query sessions included multiple topics, (3) there are a broad variety of topics in multitasking search sessions, and (4) three or more query sessions sometimes contained frequent topic changes. Multitasking is found to be a growing element in Web searching. This paper proposes an approach to interactive information retrieval (IR) contextually within a multitasking framework. The implications of our findings for Web design and further research are discussed.
Themenfeld: Suchmaschinen ; Benutzerstudien
Objekt: AltaVista
-
6Guggenheim, E. ; Bar-Ilan, E.: Tauglichkeit von Suchmaschinen für deutschsprachige Abfragen.
In: Information - Wissenschaft und Praxis. 56(2005) H.1, S.35-40.
Abstract: Diese Arbeit untersucht die Handhabung von deutschsprachigen Abfragen durch Suchmaschinen. Die gängigen Suchmaschinen wurden ursprünglich für das Englische entwickelt das weniger komplex ist als die deutsche Sprache. Dies kann die Qualität von Abfrageresultaten beeinflussen. Es werden sowohl internationale als auch Suchmaschinen aus dem deutschsprachigen Raum untersucht. Der Vergleich mit vorhergehenden Arbeiten und Untersuchungen von verschiedenen Sprachen zeigt dass die Suchmaschinen zunehmend besser für den Umgang mit deutschsprachigen Abfragen entwickelt werden.
Anmerkung: Beitrag in einem Heft mit dem Themenschwerpunkt "Suchmaschinen"
Themenfeld: Suchmaschinen
Objekt: AltaVista ; Bluewin ; Freenet ; Google ; MSN ; T-Online ; Web.de ; Search.ch ; Seekport ; Yahoo
-
7Jansen, B.J. ; Spink, A. ; Pedersen, J.: ¬A temporal comparison of AItaVista Web searching.
In: Journal of the American Society for Information Science and Technology. 56(2005) no.6, S.559-570.
Abstract: Major Web search engines, such as AItaVista, are essential tools in the quest to locate online information. This article reports research that used transaction log analysis to examine the characteristics and changes in AItaVista Web searching that occurred from 1998 to 2002. The research questions we examined are (1) What are the changes in AItaVista Web searching from 1998 to 2002? (2) What are the current characteristics of AItaVista searching, including the duration and frequency of search sessions? (3) What changes in the information needs of AItaVista users occurred between 1998 and 2002? The results of our research show (1) a move toward more interactivity with increases in session and query length, (2) with 70% of session durations at 5 minutes or less, the frequency of interaction is increasing, but it is happening very quickly, and (3) a broadening range of Web searchers' information needs, with the most frequent terms accounting for less than 1% of total term usage. We discuss the implications of these findings for the development of Web search engines.
Themenfeld: Suchmaschinen ; Benutzerstudien
Objekt: AltaVista
-
8Ford, N. ; Miller, D. ; Moss, N.: Web search strategies and human individual differences : cognitive and demographic factors, Internet attitudes, and approaches.
In: Journal of the American Society for Information Science and Technology. 56(2005) no.7, S.741-756.
Abstract: The research reported here was an exploratory study that sought to discover the effects of human individual differences an Web search strategy. These differences consisted of (a) study approaches, (b) cognitive and demographic features, and (c) perceptions of and preferred approaches to Web-based information seeking. Sixtyeight master's students used AItaVista to search for information an three assigned search topics graded in terms of complexity. Five hundred seven search queries were factor analyzed to identify relationships between the individual difference variables and Boolean and best-match search strategies. A number of consistent patterns of relationship were found. As task complexity increased, a number of strategic shifts were also observed an the part of searchers possessing particular combinations of characteristics. A second article (published in this issue of JASIST; Ford, Miller, & Moss, 2005) presents a combined analyses of the data including a series of regression analyses.
Themenfeld: Suchtaktik ; Benutzerstudien ; Internet
Objekt: AltaVista
-
9Ford, N. ; Miller, D. ; Moss, N.: Web search strategies and human individual differences : a combined analysis.
In: Journal of the American Society for Information Science and Technology. 56(2005) no.7, S.757-764.
Abstract: This is the second of two articles published in this issue of JASIST reporting the results of a study investigating relationships between Web search strategies and a range of human individual differences. In this article we provide a combined analysis of the factor analyses previously presented separately in relation to each of three groups of human individual difference (study approaches, cognitive and demographic features, and perceptions of and approaches to Internet-based information seeking). It also introduces two series of regression analyses conducted an data spanning all three individual difference groups. The results are discussed in terms of the extent to which they satisfy the original aim of this exploratory research, namely to identify any relationships between search strategy and individual difference variables for which there is a prima facie case for more focused systematic study. It is argued that a number of such relationships do exist. The results of the project are summarized and suggestions are made for further research.
Themenfeld: Suchtaktik ; Benutzerstudien ; Internet
Objekt: AltaVista
-
10Manhart, K.: Digitales Kauderwelsch : Online-Übersetzungsdienste.
In: Internet Magazin. 2004, H.2, S.78-81.
Abstract: Eine englische oder französische Website mal schnell ins Deutsche übersetzen - nichts einfacher als das. OnlineÜbersetzungsdienste versprechen den Sprachtransfer per Mausklick und zum Nulltarif. Doch was taugen sie wirklich? Online-Übersetzungsdienste wollen die Sprachbarriere im WWW beseitigen. Die automatischen Übersetzer versprechen, die E-Mail-Korrespondenz verständlich zu machen und das deutschsprachige Surfen in fremdsprachigen Webangeboten zu ermöglichen. Englische, spanische oder gar chinesische EMails und Websites können damit per Mausklick schnell in die eigene Sprache übertragen werden. Auch komplizierte englische Bedienungsanleitungen oder russische Nachrichten sollen für die Dienste kein Problem sein. Und der eine oder andere Homepage-Besitzer träumt davon, mit Hilfe der digitalen Übersetzungshelfer seine deutsche Website in perfektem Englisch online stellen zu können - in der Hoffung auf internationale Kontakte und höhere Besucherzahlen. Das klingt schön - doch die Realität sieht anders aus. Wer jemals einen solchen Dienst konsultiert hat, reibt sich meist verwundert die Augen über die gebotenen Ergebnisse. Schon einfache Sätze bereiten vielen Online-Über setzern Probleme-und sorgen unfreiwillig für Humor. Aus der CNN-Meldung "Iraq blast injures 31 U.S. troops" wird im Deutschen der Satz: "Der Irak Knall verletzt 31 Vereinigte Staaten Truppen." Sites mit schwierigem Satzbau können die Übersetzer oft nur unverständlich wiedergeben. Den Satz "The Slider is equipped with a brilliant color screen and sports an innovative design that slides open with a push of your thumb" übersetzt der bekannteste Online-Dolmetscher Babelfish mit folgendem Kauderwelsch: "Der Schweber wird mit einem leuchtenden Farbe Schirm ausgerüstet und ein erfinderisches Design sports, das geöffnetes mit einem Stoß Ihres Daumens schiebt." Solch dadaistische Texte muten alle Übersetzer ihren Nutzern zu.
Themenfeld: Computerlinguistik
Wissenschaftsfach: Sprachwissenschaft
Objekt: Babelfish ; AltaVista Babelfish ; Google Sprachtools ; Linguatec e-Translation Service ; Promt Online Translator ; Systran ; WorldLingo
-
11Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen.
In: Information - Wissenschaft und Praxis. 55(2004) H.2, S.97-102.
Abstract: Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
Themenfeld: Suchmaschinen
Objekt: Teoma ; Google ; AllTheWeb ; AltaVista ; HotBot ; Fireball
-
12Toms, E.G. ; Taves, A.R.: Measuring user perceptions of Web site reputation.
In: Information processing and management. 40(2004) no.2, S.291-317.
Abstract: In this study, we compare a search tool, TOPIC, with three other widely used tools that retrieve information from the Web: AltaVista, Google, and Lycos. These tools use different techniques for outputting and ranking Web sites: external link structure (TOPIC and Google) and semantic content analysis (AltaVista and Lycos). TOPIC purports to output, and highly rank within its hit list, reputable Web sites for searched topics. In this study, 80 participants reviewed the output (i.e., highly ranked sites) from each tool and assessed the quality of retrieved sites. The 4800 individual assessments of 240 sites that represent 12 topics indicated that Google tends to identify and highly rank significantly more reputable Web sites than TOPIC, which, in turn, outputs more than AltaVista and Lycos, but this was not consistent from topic to topic. Metrics derived from reputation research were used in the assessment and a factor analysis was employed to identify a key factor, which we call 'repute'. The results of this research include insight into the factors that Web users consider in formulating perceptions of Web site reputation, and insight into which search tools are outputting reputable sites for Web users. Our findings, we believe, have implications for Web users and suggest the need for future research to assess the relationship between Web page characteristics and their perceived reputation.
Themenfeld: Suchmaschinen
Objekt: TOPIC ; Google ; AltaVista ; Lycos
-
13Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen.
Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information, 2004. 220 S.
Abstract: Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
Anmerkung: Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
Themenfeld: Suchmaschinen
Objekt: AItaVista ; Fireball ; Google ; Lycos
-
14Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen.
In: Chip. 2003, H.2, S.222-227.
Abstract: Suchmaschinen werden zunehmend unbrauchbar: Werbeagenturen manipulieren gezielt Suchergebnisse. Wer nicht zahlt, wird nicht mehr gefunden - und der Nutzer erhält Fake-Sites statt Fakten
Inhalt: "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de". ; Wer jedoch einen dieser Links aufruft, wird per JavaScript blitzschnell auf ein "Zink Portal" der Firma n-factory (www.nfactory.com) geführt. Dieses Portal gibt es in fünf verschiedenen Ausführungen, aber immer mit dem gleichen Inhalt: Wer hier landet, kommt mit dem nächsten Klick zu Werbepartnern wie Autoscout24 oder Radblenden.de. Die Top-Platzierungen im Ranking der Suchmaschinen erreichen Firmen wie n-factory durch so genannte "Doorway Pages". Diese "Brückenseiten" sind der letzte Schrei bei den web-Vermarktern. Der Trick: Hunderte von verschiedenen Domains mit Tausenden von Webseiten werden mit identischem oder nur leicht variierendem Inhalt erstellt. Gleichzeitig verweisen diese Seiten konsequent aufeinander. Die Software-Spider der Suchmaschinen, die durchs Web wuseln und Seiten indizieren, achten ihrerseits genau auf den Grad der Verlinkung einer Webseite, um ihre Bedeutung festzustellen - schon rutscht die "Doorway Page" im Ranking nach oben. Darüber hinaus können die Werber noch weitere Waffen im Kampf um Bestplatzierungen ins Feld führen. Die älteste Form der Ranking-Manipulation ist das "Spamdexing". Hierbei werden Schlüsselbegriffe im Quelltext einer HTML-Seite gleich hundertfach wiederholt oder gar falsche Keyword-Listen eingebaut, die nichts mit dem Inhalt der Webseite zu tun haben. Beliebter, weil von den Suchmaschinen schwerer zu durchschauen, sind die "Cloaking Sites". Diese unsichtbaren (engl. "cloaked" = verhüllt) Webseiten werden nur für die Suchroboter von Google und Co. entworfen. Erkennt der Server einer solchen Cloaking Site die Such-Software anhand der IP-Adresse oder ihrer Identifikation, wird dem Spider eine gefälschte Webseite untergejubelt, die andere Surfer nie zu Gesicht bekommen. Fast jedenfalls: Die dunkle Seite des Webs erscheint zumindest in jenen Textauszügen, die die Suchmaschinen in ihren Ergebnislisten auswerfen - und meist wimmelt es dann nur so von Schlüsselwörtern ohne Zusammenhang. Im zuckersüßen Werberdeutsch werden derlei Maßnahmen natürlich ganz anders benannt. Optimierungs-Verfahren wie die berüchtigten Doorway Pages preist beispielsweise die Ebersberger Firma Imedia (www.imedia-online.de) als Allzweckwaffe, denn schließlich könnten diese Seiten "von Suchmaschinen nicht abgelehnt werden". Schön, dass Imedia auch gleich noch einen Rundumservice bietet und für Kunden Webseiten für "die Zielgruppe Suchmaschinen" baut. Von Ranking-Manipulation will Geschäftsführer Dominique Madelaine freilich nichts wissen, denn die Seiten von Imedia, so Madelaine, "sollen kein Spam sein"' und der Einsatz von Brückenseiten bleibe ohnehin "sehr begrenzt". ; Das mag für Imedia gelten, nicht aber unbedingt für die Partner der Firma. So gehören zum Portfolio der Ebersberger die beiden Services Webmasterplan (http://de.webmasterplan.com) und Affili.Net (www.affili.net). Webmaster plan erstellt die optimierten Webseiten, Affilinet besorgt die "Partnerprogramme" für eben diese Seiten. Interessierte Web-Administratoren können so Werbelinks und Banner für Imedia-Kunden auf ihren Seiten platzieren und mit den Klicks Geld verdienen. Interessanterweise befinden sich unter diesen Partnern auch die zahlreichen "Link Portale" von n-factory, die mit Seiten über "flinke Flitzer", "Kolbenholben" oder "Autotuningtrixx" hitverdächtige Rankings bei den Suchmaschinen erzeugen. Trotz des "Erfolges" mag n-factory-Geschäftsführer Stefan Englert aber nicht so recht über seine Brückenseiten reden. Schon die Erwähnung des Firmennamens in CHIP stieß bei Englert auf wenig Gegenliebe - und das bei einem Unternehmen, das laut Eigenwerbung lediglich "zielgruppengerechtes NetzMarketing" betreibt. Andere Ranking-Profis sind da auskunftsfreudiger. Dazu gehören die Firma Allactive Medien GmbH (www.allactive.de) und ihr Partner "Traffictime" aus Kevelaer. Deren Link-Portale erreichen bei Google Suchbegriffen für "günstige Prozessoren" in der Ergebnisliste die beachtlichen Plätze zwei, fünf und sieben und verlinken allesamt direkt auf die eBay-Homepage. Allactive-Chef Jens Menzenbach sieht darin auch gar nichts Verwerfliches, denn schließlich sei "das, was der User sucht, auch das, was er bei eBay findet". Ergo: Da man bei eBay alles findet, darf man auch jeden Suchbegriff auf eBay verlinken. Peinlich ist Allactive und Traffictime jedoch, dass selbst uralte Doorway-Pages gleich mehrfach bei den Suchmaschinen auftauchen - nach Hinweisen von CHIP nahm die Firma prompt die Übeltäter aus dem Index. Ohnehin, beteuert Menzenbach, gebe es für den Einsatz von DoorwayPages eine Grenze - eine finanzielle, keine moralische: "Der Traffic wird irgendwann zu teuer. 20.000 Seiten würden einem einfach das Genick brechen." Derart viele Seiten mögen tatsächlich unrealistisch sein, doch bis zu 2.000 Link-Portale sind durchaus nichts Ungewöhnliches. Und der Aufwand lohnt sich: Wird der arglose Surfer erfolgreich auf die Webseite des Werbekunden verfrachtet, wird dies laut Branchen-Informationen mit 10 bis 20 Cent Provision vergütet. Füllt der gutwillige Nutzer auch noch ein Formular mit seinen persönlichen Daten aus, werden für diesen "Lead" angeblich bis zu 4 Euro ausbezahlt. Und ein Verkauf, neudeutsch "Sale" genannt, schlägt gar mit ein bis fünf Prozent der Verkaufssumme zu Buche. ; Der Schönheitsfehler: Von dem vielen Geld hat der Suchmaschinen-Betreiber gar nichts, schlimmer noch: Das Renommee leidet. Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet". Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet".
Anmerkung: Mit einer Grafik der populärsten Suchmaschinen
Themenfeld: Suchmaschinen
Objekt: Google ; AltaVista ; Fireball ; AllThe Web
-
15Ford, N. ; Miller, D. ; Moss, N.: Web search strategies and approaches to studying.
In: Journal of the American Society for Information Science and technology. 54(2003) no.6, S.473-488.
Abstract: In this issue Ford, Miller and Moss utilize 68 volunteers from a population of 250 Master's students to complete on the web three search tasks with clear fact based goals and three or less facets. One task required broadening the search concepts from those given, a second provided a specific terminology for one facet but required a second facet that would require translation, and the third required general to specific transformation. The students were measured as to their performance on Entewistle's Revised Inventory of Approaches to Studying providing values for ten study variables and asked to assess their experience on the Internet, with Alta Vista, and with Boolean search. Searches were conducted on Alta Vista using Netscape Navigator 4 with participants free to choose and switch Boolean, best match or combined search modes at will while a front end script recorded all submitted searches and help access. Search related variables extracted were from Boolean only queries, best match only queries, and combined queries. Factor analyses were conducted on all variables for each search mode for each search. In task one Boolean is differentiated from best match search by sharing high loads on active interest, intention to reproduce, fear of failure, and relating ideas. The combined searcher is linked with the best match searcher with low active interest, low intention to reproduce and low fear of failure. In task 2 Boolean is differentiated from best match search by sharing high loads on intention to reproduce and low on intention to understand. Best match loads positively with intention to understand and negatively with intention to reproduce. Combined searching linked with both good and with poor time management. In task 3 the loads mimic task 1. It seems Boolean is consistently linked to a reproductive rather than a meaning seeking approach, but also with high levels of interest and fear of failure. Best match associates with the converse of these measures.
Themenfeld: Suchmaschinen ; Suchtaktik
Objekt: AltaVista
-
16Breyer, K.: Kommerz statt Information.
In: PC professionell. 2002, H.6, S.122-129.
Abstract: Äußerst schwache Leistungen liefern die meisten Suchmaschinen, wenn aktuelle Infos gefragt sind. Stattdessen wird zu viel versteckte Werbung gezeigt. PCpro erklärt, wie User aktuelle Daten finden
Inhalt: Mit Wertungstabelle
Themenfeld: Suchmaschinen
Objekt: Abacho ; Acoon ; AlltheWeb ; AltaVista ; Blitzsuche ; Dino-Online ; Fireball ; Google ; HotBot ; Lotse ; Lycos ; Search.MSN ; Netfind ; Speedfind ; Walhello
-
17Web search service features.
In: http://www.unn.ac.uk/central/isd/features.htm.
Abstract: The table shows some of the features and techniques for the most common general Web search services to show how to use them and to help decide which may be the most appropriate. See the notes below that explain the headings. Each service also provides more detailed instructions. Note that some features will be available under an 'advanced', 'power' or other further search option and not from the main page.
Inhalt: Tabellarische Zusammenstellung der wichtigsten Kommandos einer Reihe von Suchmaschinen
Themenfeld: Suchmaschinen
Objekt: AlltheWeb ; AltaVista ; Google ; HotBot ; Lycos
-
18Weinstein, A.: Hochprozentig : Tipps and tricks für ein Top-Ranking.
In: Internet Professionell. 2002, H.9, S.66-71.
Abstract: Die Suchmaschinen haben in den letzten Monaten an ihren Ranking-Algorithmen gefeilt, um Spamern das Handwerk zu erschweren. Internet Pro beleuchtet die Trends im Suchmaschinen-Marketing
Themenfeld: Suchmaschinen ; Retrievalalgorithmen
Objekt: AlltheWeb ; Fast ; Google ; AltaVista ; Fireball
-
19Patalong, F.: Life after Google : I. Besser suchen, wirklich finden.
In: http://www.spiegel.de/netzwelt/technologie/0,1518,222478,00.html.
(SPIEGEL ONLINE - 13. November 2002)
Inhalt: "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles. ; Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht. ; Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab. ; Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
Anmerkung: Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/
Themenfeld: Suchmaschinen
Objekt: Google ; SearchEngineWatch ; IxQuick ; Pandia ; Ithaki ; MetaSpinner ; AlltheWeb ; AltaVista ; Inktomi ; WiseNut ; Teoma ; HotBot
-
20Griesbaum, J. ; Rittberger, M. ; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de.
In: Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker. Konstanz : UVK, 2002. S.201-223.
Anmerkung: Unter: http://www.inf.uni-konstanz.de/~griesbau/texte.html elektronisch als Volltext (PDF 500 KB), Präsentation (PDF 460 KB)
Themenfeld: Suchmaschinen ; Retrievalstudien
Objekt: AltaVista ; Fireball ; Google ; Lycos