Search (537 results, page 27 of 27)

  • × theme_ss:"Suchmaschinen"
  1. Bar-Ilan, J.; Levene, M.; Mat-Hassan, M.: Methods for evaluating dynamic changes in search engine rankings : a case study (2006) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 616) [ClassicSimilarity], result of:
          0.004759258 = score(doc=616,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=616)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - The objective of this paper is to characterize the changes in the rankings of the top ten results of major search engines over time and to compare the rankings between these engines. Design/methodology/approach - The papers compare rankings of the top-ten results of the search engines Google and AlltheWeb on ten identical queries over a period of three weeks. Only the top-ten results were considered, since users do not normally inspect more than the first results page returned by a search engine. The experiment was repeated twice, in October 2003 and in January 2004, in order to assess changes to the top-ten results of some of the queries during the three months interval. In order to assess the changes in the rankings, three measures were computed for each data collection point and each search engine. Findings - The findings in this paper show that the rankings of AlltheWeb were highly stable over each period, while the rankings of Google underwent constant yet minor changes, with occasional major ones. Changes over time can be explained by the dynamic nature of the web or by fluctuations in the search engines' indexes. The top-ten results of the two search engines had surprisingly low overlap. With such small overlap, the task of comparing the rankings of the two engines becomes extremely challenging. Originality/value - The paper shows that because of the abundance of information on the web, ranking search results is of extreme importance. The paper compares several measures for computing the similarity between rankings of search tools, and shows that none of the measures is fully satisfactory as a standalone measure. It also demonstrates the apparent differences in the ranking algorithms of two widely used search engines.
  2. Spink, A.; Jansen, B.J.; Blakely, C.; Koshman, S.: ¬A study of results overlap and uniqueness among major Web search engines (2006) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 993) [ClassicSimilarity], result of:
          0.004759258 = score(doc=993,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 993, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=993)
      0.25 = coord(1/4)
    
    Source
    Information processing and management. 42(2006) no.5, S.1379-1391
  3. Neue Suchmaschine von Q-Sensei ermöglicht mehrdimensionales Navigieren (2009) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 2825) [ClassicSimilarity], result of:
          0.004759258 = score(doc=2825,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 2825, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2825)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.3, S.127
  4. Long, J.: Google hacking (2008) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 2925) [ClassicSimilarity], result of:
          0.004759258 = score(doc=2925,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
  5. Radhakrishnan, A.: Swoogle : an engine for the Semantic Web (2007) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 4709) [ClassicSimilarity], result of:
          0.004759258 = score(doc=4709,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 4709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4709)
      0.25 = coord(1/4)
    
    Content
    "Swoogle, the Semantic web search engine, is a research project carried out by the ebiquity research group in the Computer Science and Electrical Engineering Department at the University of Maryland. It's an engine tailored towards finding documents on the semantic web. The whole research paper is available here. Semantic web is touted as the next generation of online content representation where the web documents are represented in a language that is not only easy for humans but is machine readable (easing the integration of data as never thought possible) as well. And the main elements of the semantic web include data model description formats such as Resource Description Framework (RDF), a variety of data interchange formats (e.g. RDF/XML, Turtle, N-Triples), and notations such as RDF Schema (RDFS), the Web Ontology Language (OWL), all of which are intended to provide a formal description of concepts, terms, and relationships within a given knowledge domain (Wikipedia). And Swoogle is an attempt to mine and index this new set of web documents. The engine performs crawling of semantic documents like most web search engines and the search is available as web service too. The engine is primarily written in Java with the PHP used for the front-end and MySQL for database. Swoogle is capable of searching over 10,000 ontologies and indexes more that 1.3 million web documents. It also computes the importance of a Semantic Web document. The techniques used for indexing are the more google-type page ranking and also mining the documents for inter-relationships that are the basis for the semantic web. For more information on how the RDF framework can be used to relate documents, read the link here. Being a research project, and with a non-commercial motive, there is not much hype around Swoogle. However, the approach to indexing of Semantic web documents is an approach that most engines will have to take at some point of time. When the Internet debuted, there were no specific engines available for indexing or searching. The Search domain only picked up as more and more content became available. One fundamental question that I've always wondered about it is - provided that the search engines return very relevant results for a query - how to ascertain that the documents are indeed the most relevant ones available. There is always an inherent delay in indexing of document. Its here that the new semantic documents search engines can close delay. Experimenting with the concept of Search in the semantic web can only bore well for the future of search technology."
  6. Deep Search : Politik des Suchens jenseits von Google; Deep Search-Konferenz ; (Wien) : 2008.11.08; eine Veröffentlichung des World-Information Institute (2009) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 15) [ClassicSimilarity], result of:
          0.004759258 = score(doc=15,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
      0.25 = coord(1/4)
    
  7. Bressan, M.; Peserico, E.: Choose the damping, choose the ranking? (2010) 0.00
    0.0011898145 = product of:
      0.004759258 = sum of:
        0.004759258 = weight(_text_:information in 2563) [ClassicSimilarity], result of:
          0.004759258 = score(doc=2563,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 2563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2563)
      0.25 = coord(1/4)
    
    Abstract
    To what extent can changes in PageRank's damping factor affect node ranking? We prove that, at least on some graphs, the top k nodes assume all possible k! orderings as the damping factor varies, even if it varies within an arbitrarily small interval (e.g. [0.84999,0.85001][0.84999,0.85001]). Thus, the rank of a node for a given (finite set of discrete) damping factor(s) provides very little information about the rank of that node as the damping factor varies over a continuous interval. We bypass this problem introducing lineage analysis and proving that there is a simple condition, with a "natural" interpretation independent of PageRank, that allows one to verify "in one shot" if a node outperforms another simultaneously for all damping factors and all damping variables (informally, time variant damping factors). The novel notions of strong rank and weak rank of a node provide a measure of the fuzziness of the rank of that node, of the objective orderability of a graph's nodes, and of the quality of results returned by different ranking algorithms based on the random surfer model. We deploy our analytical tools on a 41M node snapshot of the .it Web domain and on a 0.7M node snapshot of the CiteSeer citation graph. Among other findings, we show that rank is indeed relatively stable in both graphs; that "classic" PageRank (d=0.85) marginally outperforms Weighted In-degree (d->0), mainly due to its ability to ferret out "niche" items; and that, for both the Web and CiteSeer, the ideal damping factor appears to be 0.8-0.9 to obtain those items of high importance to at least one (model of randomly surfing) user, but only 0.5-0.6 to obtain those items important to every (model of randomly surfing) user.
  8. Groß, M.: Warum Ordnung keinen Sinn mehr macht (2003) 0.00
    0.0010410878 = product of:
      0.004164351 = sum of:
        0.004164351 = weight(_text_:information in 2437) [ClassicSimilarity], result of:
          0.004164351 = score(doc=2437,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.06788416 = fieldWeight in 2437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2437)
      0.25 = coord(1/4)
    
    Content
    "Ich gebe es zu: Ich bin ein manischer Jäger und Sammler von Informationen. Bis heute habe ich keine einzige Fotokopie eines Fachartikels weggeworfen. Aber meine Sammelwut geht viel weiter: Meine Archive enthalten auch Artikel über die ehemalige Konzertpianistin, die 20 Jahre in einem Autowrack in einem Londoner Villenviertel lebte, bis es die Nachbarn verschrotten ließen. Ferner horte ich Berichte über naturkundliche Kuriositäten sowie Theater- und Konzertprogramme. Hinzu kommen Kritiken von Filmen, die ich gesehen habe. Und alle Spektrum-Hefte seit 1985 in Jahrgangsboxen. Bis vor kurzem waren diese Informationsschätze in einem voluminösen, sinnreich geordneten Archiv aus Dutzenden von Pappkartons, Stehsammlern, Hängeordnern und Ringbüchern relativ leicht auffindbar. Nach mehreren Büroumzügen ist dieses System jetzt allerdings ein wenig durchgeschüttelt. Und ich fürchte, es wird seine glorreichen Tage nie wieder sehen. Denn vor einigen Monaten fiel es mir wie Schuppen von den Augen: Dank der Suchmaschine Google hat das Ordnen von Informationen grundsätzlich jeden Sinn verloren. »Wer Ordnung hält, ist nur zu faul zum Suchen«, sagte meine selige Großtante immer. Dabei konnte sie nicht ahnen, dass der zum Suchen nötige Aufwand eines Tages gegen null gehen würde. Noch vor gut fünf Jahren waren InternetRecherchen tatsächlich mühselig. Man hatte die Wahl zwischen Suchmaschinen, die einen mit nutzlosen Ergebnissen überschütteten, und endlosen Verzeichnissen, die nach Kategorien geordnet waren und wie die gelben Seiten funktionierten: Region / Dienstleistungen /Klempner -Heureka! In jener finsteren Zeit lohnte es sich noch, öffentlich zugängliche Informationen für den Hausgebrauch zusammenzustellen und nach einem durchdachten System zu archivieren. Ich hatte auf meiner Website ein Verzeichnis von Hunderten von Weblinks, wohlsortiert nach Kategorien und Unterkategorien. Heute benutze ich es kaum noch, weil es viel zu viel Arbeit wäre, es auf dem neuesten Stand zu halten, und weil ich die Links über Google mindestens genauso schnell finde. Vom »Guardian« zu einem der sieben Weltwunder des Internets erklärt, erkundet die aus einem Forschungsprojekt an der Stanford-Universität hervorgegangene Suchmaschine nicht nur, welche Informationen die einzelnen Websites anbieten, sondern auch, wie relevant sie für andere sind. Damit gelingt, was wie Hexerei anmutet: Die gewünschte Verbindung taucht praktisch immer ganz vorne in der Liste auf. Die Folgen sind revolutionär: Wir haben den Punkt erreicht, wo das geordnete Archivieren öffentlich zugänglicher Information unnütz geworden ist. Mich trifft das schwer. Meine gesammelten Zeitungsausschnitte sind Makulatur. Die meisten stammen aus dem »Guardian«, und der unterhält eines der besten Zeitungsarchive auf dem Netz. Da finde ich Artikel, an die ich mich dunkel erinnere, leichter als in meinen Pappkartons. Informationen über Bücher und Filme braucht man ebenso wenig aufzuheben -Amazon und die Internet Movie Database erledigen das. Aber was mache ich nun mit meinen ehemals wertvollen, hochgradig geordneten Informationen? Einfach wegwerfen? Das bringe ich nicht über mich. Bedenken Sie nur, um wie viel das die Entropie des Universums unwiederbringlich erhöhen würde! Derzeit erprobe ich ein neues, vereinfachtes Ordnungsschema mit nur drei Kategorien, bei dem ich die Papiere einfach chronologisch staple. Ab und zu, wenn ich auf der Suche nach einem Glossenthema bin, stöbere ich so einen Stapel durch. Und wenn Einsturzgefahr droht, kann ich jeweils den untersten Meter zusammenschnüren und zum Altpapier geben. Oder vielleicht doch auf dem Dachboden lagern? Man kann ja nie wissen ..."
  9. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.00
    0.0010410878 = product of:
      0.004164351 = sum of:
        0.004164351 = weight(_text_:information in 2936) [ClassicSimilarity], result of:
          0.004164351 = score(doc=2936,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.06788416 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
      0.25 = coord(1/4)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  10. Keith, S.: Searching for news headlines : connections between unresolved hyperlinking issues and a new battle over copyright online (2007) 0.00
    0.0010410878 = product of:
      0.004164351 = sum of:
        0.004164351 = weight(_text_:information in 351) [ClassicSimilarity], result of:
          0.004164351 = score(doc=351,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.06788416 = fieldWeight in 351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=351)
      0.25 = coord(1/4)
    
    Abstract
    In March 2005, the Paris-based news service Agence France Presse (AFP) sued Google Inc. in an American court, charging that the search engine's news aggregator program had illegally infringed the wire service's copyright. The lawsuit, filed in the u.s. District Court for the District of Columbia, claimed that Google News had engaged in the infringement since its launch in September 2002 by »reproducing and publicly displaying AFP's photographs, headlines, and story leads« . The claim also said that Google News had ignored requests that it cease and desist the infringement, and it asked for more than $17 million (about 13.6 million Euros) in damages. Within a few days, Google News was removing links t0 Agence France Presse news articles and photographs.1 However, Agence France Presse said it would still pursue the lawsuit because 0f the licensing fees it was owed as a result of what it claimed was Google's past copyright infringement. The case, which was still pending in early 2007, as the sides struggled to reconstruct and evaluate specific past Google News pageso, was interesting for several reasons. First, it pitted the company that owns the world's most popular search engine against the world's oldest news service; Agence France Presse was founded in Paris in 1835 by Charles-Louis Havas, sometimes known as the father of global journalismo. Second, the copyright-infringement allegations made by AFP had not been made by most of the 4,500 or so other news organizations whose material is used in exactly the same way on Google News every day, though Google did lose somewhat similar cases in German and Belgian courts in 2004 and 2006, respectively. Third, AFP's assertions and Google's counter claims offer an intriguing argument about the nature of key components of traditional and new-media journalism, especially news headlines. Finally, the case warrants further examination because it is essentially an argument over the fundamental nature of Internet hyperlinking. Some commentators have noted that a ruling against Google could be disastrous for blogs, which also often quote news storieso, while other commentators have concluded that a victory for Agence France Presse would call into question the future of online news aggregatorso. This chapter uses the Agence France Presse lawsuit as a way to examine arguments about the legality of news aggregator links to copyrighted material. Using traditional legal research methods, it attempts to put the case into context by referring to key u.s. and European Internet hyperlinking lawsuits from the 1990s through 2006. The chapter also discusses the nature of specific traditional journalistic forms such as headlines and story leads and whether they can be copyrighted. Finally, the chapter argues that out-of-court settlements and conflicting court rulings have left considerable ambiguity around the intersection of copyright, free speech, and information-cataloging concerns, leaving Google News and other aggregators vulnerable to claims of copyright infringement.
  11. Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002) 0.00
    8.923609E-4 = product of:
      0.0035694437 = sum of:
        0.0035694437 = weight(_text_:information in 2107) [ClassicSimilarity], result of:
          0.0035694437 = score(doc=2107,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.058186423 = fieldWeight in 2107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
  12. Arnold, A.: Jetzt finden Sie alles schneller (2005) 0.00
    8.923609E-4 = product of:
      0.0035694437 = sum of:
        0.0035694437 = weight(_text_:information in 74) [ClassicSimilarity], result of:
          0.0035694437 = score(doc=74,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.058186423 = fieldWeight in 74, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
      0.25 = coord(1/4)
    
    Content
    "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen.
  13. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 3576) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=3576,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.25 = coord(1/4)
    
    Content
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
  14. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 5134) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=5134,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  15. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 5956) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=5956,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  16. Hähle, S.: Verborgenes Entdecken (2005) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=34,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.25 = coord(1/4)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  17. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    7.4363407E-4 = product of:
      0.0029745363 = sum of:
        0.0029745363 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=2678,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.25 = coord(1/4)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.

Years

Languages

Types

  • a 478
  • el 36
  • m 30
  • s 10
  • x 7
  • r 1
  • More… Less…

Subjects

Classifications