Search (197 results, page 10 of 10)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  1. Schetsche, M.; Lehmann, K.; Krug, T.: ¬Die Google-Gesellschaft : Zehn Prinzipien der neuen Wissensordnung (2005) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 3488) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=3488,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 3488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=3488)
      0.2 = coord(1/5)
    
    Content
    Enthält die Kapitel: Mythos Google Wissen war gestern, googlen ist heute und die Prinzipien: 1. Die Suchmaschine als Universalschnittstelle 2. Die mediale Erschaffung der Wirklichkeit 3. Neue Wirklichkeit, neue Öffentlichkeit 4. Ungleichheit durch Gerechtigkeit 5. Unhintergehbare technische Normen 6. Wiederverzauberung der Welt 7. Die neue Ökonomie 8. Der Kampf um Aufmerksamkeit 9. Information als Transaktionsressource 10. Dissoziative UmOrdnung des Wissens
  2. Suchmaschine mit kostenloser PC-Sprachausgabe (2006) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 5137) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=5137,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 5137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5137)
      0.2 = coord(1/5)
    
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.4, S.188
  3. Söllner, K.: Google Scholar und Windows Live Academic Search - aktuelle Entwicklungen bei wissenschaftlichen Suchmaschinen (2006) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 5181) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=5181,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 5181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5181)
      0.2 = coord(1/5)
    
    Abstract
    Dass das World Wide Web als geeignete Quelle wissenschaftlicher Information angesehen werden kann, ist für viele Fächer inzwischen unumstritten. Weniger im Bewusstsein der Nutzer verankert ist die Erkenntnis, dass das Web nur in den Ausschnitten und in der Anordnung zur Kenntnis genommen werden kann, wie sie die Suchmaschinen präsentieren. Dieser Aspekt ist vor allem durch die allgegenwärtigen Rankingverfahren der führenden Suchmaschinenanbieter in den Hintergrund getreten. Dagegen ist die Suche in Internetkatalogen, die offensichtlicher nur Ausschnitte und eine unmittelbar nachvollziehbare Anordnung präsentieren, seit dem Siegeszug von Googles PageRank unpopulär geworden. Rankingverfahren, Abdeckung und Aktualität eines Suchmaschinenindex sind nicht nur Geschäftsgeheimnis der Betreiher, sondern angesichts ihres scheinbar reibungslosen Funktionierens für den normalen Nutzer uninteressant. Dass auch Kenntnisse einer strukturierten Suche oder Suchsyntax für das textbasierte Web meistenteils unnötig oder inadäquat sind, lässt die Websuche besonders einfach erscheinen - im Unterschied zu den Suchmasken und Syntaxkonventionen der Bibliotheks-0PACs und vieler Datenbankanbieter. Diese Einfachheit wird durch installierte Suchwerkzeuge a la Google Toolbar bzw. fest integrierte Suchschlitze wie im Mozilla-Browser Firefox bzw. im Internet Explorer 7.0 zum Standard für die großen Suchmaschinen, und durch entsprechende Such-Plugins auch für andere Suchen. Ein besonderer Wettbewerbsvorteil der Suchmaschinen gegenüber den Datenbankanbietern, der sich auch nicht durch Anpassungen beim Design kompensieren lässt, ist die Kostenfreiheit der Suche. Darüber hinaus erfüllen sie eine wesentliche Anforderung an sehr viele wissenschaftliche Themenstellungen: sie sind strikt interdisziplinär. Damit machen Sie aus der Not eine Tugend, denn eine fachliche Auswahl oder intellektuelle Auswertung findet in der Regel nicht statt. Die Defizite der großen Suchmaschinen liegen aus wissenschaftlicher Sicht betrachtet aber auch genau in diesem Bereich: unspezifische oder thematische Suchen führen zu Massen populärer Websites, nicht aber zum wissenschaftlichen Content, insbesondere etwa in der Medizin. Das Dilemma des häufig schlechten Rankings wissenschaftlicher Inhalte ist einer der Ausgangspunkte für den Ruf nach wissenschaftlichen Suchmaschinen.
  4. Neue Suchmaschine von Q-Sensei ermöglicht mehrdimensionales Navigieren (2009) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 2825) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=2825,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 2825, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2825)
      0.2 = coord(1/5)
    
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.3, S.127
  5. Long, J.: Google hacking (2008) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 2925) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=2925,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 2925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2925)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
  6. Deep Search : Politik des Suchens jenseits von Google; Deep Search-Konferenz ; (Wien) : 2008.11.08; eine Veröffentlichung des World-Information Institute (2009) 0.00
    0.0013578499 = product of:
      0.0067892494 = sum of:
        0.0067892494 = weight(_text_:information in 15) [ClassicSimilarity], result of:
          0.0067892494 = score(doc=15,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.0775819 = fieldWeight in 15, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
      0.2 = coord(1/5)
    
  7. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.00
    0.0013507999 = product of:
      0.0067539997 = sum of:
        0.0067539997 = product of:
          0.0135079995 = sum of:
            0.0135079995 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.0135079995 = score(doc=3684,freq=2.0), product of:
                0.17456654 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.049850095 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 6.2005 9:52:00
  8. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.00
    0.0013321568 = product of:
      0.006660784 = sum of:
        0.006660784 = weight(_text_:on in 1165) [ClassicSimilarity], result of:
          0.006660784 = score(doc=1165,freq=2.0), product of:
            0.109641045 = queryWeight, product of:
              2.199415 = idf(docFreq=13325, maxDocs=44218)
              0.049850095 = queryNorm
            0.060750827 = fieldWeight in 1165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.199415 = idf(docFreq=13325, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.2 = coord(1/5)
    
    Content
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
  9. Groß, M.: Warum Ordnung keinen Sinn mehr macht (2003) 0.00
    0.0011881187 = product of:
      0.0059405933 = sum of:
        0.0059405933 = weight(_text_:information in 2437) [ClassicSimilarity], result of:
          0.0059405933 = score(doc=2437,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.06788416 = fieldWeight in 2437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2437)
      0.2 = coord(1/5)
    
    Content
    "Ich gebe es zu: Ich bin ein manischer Jäger und Sammler von Informationen. Bis heute habe ich keine einzige Fotokopie eines Fachartikels weggeworfen. Aber meine Sammelwut geht viel weiter: Meine Archive enthalten auch Artikel über die ehemalige Konzertpianistin, die 20 Jahre in einem Autowrack in einem Londoner Villenviertel lebte, bis es die Nachbarn verschrotten ließen. Ferner horte ich Berichte über naturkundliche Kuriositäten sowie Theater- und Konzertprogramme. Hinzu kommen Kritiken von Filmen, die ich gesehen habe. Und alle Spektrum-Hefte seit 1985 in Jahrgangsboxen. Bis vor kurzem waren diese Informationsschätze in einem voluminösen, sinnreich geordneten Archiv aus Dutzenden von Pappkartons, Stehsammlern, Hängeordnern und Ringbüchern relativ leicht auffindbar. Nach mehreren Büroumzügen ist dieses System jetzt allerdings ein wenig durchgeschüttelt. Und ich fürchte, es wird seine glorreichen Tage nie wieder sehen. Denn vor einigen Monaten fiel es mir wie Schuppen von den Augen: Dank der Suchmaschine Google hat das Ordnen von Informationen grundsätzlich jeden Sinn verloren. »Wer Ordnung hält, ist nur zu faul zum Suchen«, sagte meine selige Großtante immer. Dabei konnte sie nicht ahnen, dass der zum Suchen nötige Aufwand eines Tages gegen null gehen würde. Noch vor gut fünf Jahren waren InternetRecherchen tatsächlich mühselig. Man hatte die Wahl zwischen Suchmaschinen, die einen mit nutzlosen Ergebnissen überschütteten, und endlosen Verzeichnissen, die nach Kategorien geordnet waren und wie die gelben Seiten funktionierten: Region / Dienstleistungen /Klempner -Heureka! In jener finsteren Zeit lohnte es sich noch, öffentlich zugängliche Informationen für den Hausgebrauch zusammenzustellen und nach einem durchdachten System zu archivieren. Ich hatte auf meiner Website ein Verzeichnis von Hunderten von Weblinks, wohlsortiert nach Kategorien und Unterkategorien. Heute benutze ich es kaum noch, weil es viel zu viel Arbeit wäre, es auf dem neuesten Stand zu halten, und weil ich die Links über Google mindestens genauso schnell finde. Vom »Guardian« zu einem der sieben Weltwunder des Internets erklärt, erkundet die aus einem Forschungsprojekt an der Stanford-Universität hervorgegangene Suchmaschine nicht nur, welche Informationen die einzelnen Websites anbieten, sondern auch, wie relevant sie für andere sind. Damit gelingt, was wie Hexerei anmutet: Die gewünschte Verbindung taucht praktisch immer ganz vorne in der Liste auf. Die Folgen sind revolutionär: Wir haben den Punkt erreicht, wo das geordnete Archivieren öffentlich zugänglicher Information unnütz geworden ist. Mich trifft das schwer. Meine gesammelten Zeitungsausschnitte sind Makulatur. Die meisten stammen aus dem »Guardian«, und der unterhält eines der besten Zeitungsarchive auf dem Netz. Da finde ich Artikel, an die ich mich dunkel erinnere, leichter als in meinen Pappkartons. Informationen über Bücher und Filme braucht man ebenso wenig aufzuheben -Amazon und die Internet Movie Database erledigen das. Aber was mache ich nun mit meinen ehemals wertvollen, hochgradig geordneten Informationen? Einfach wegwerfen? Das bringe ich nicht über mich. Bedenken Sie nur, um wie viel das die Entropie des Universums unwiederbringlich erhöhen würde! Derzeit erprobe ich ein neues, vereinfachtes Ordnungsschema mit nur drei Kategorien, bei dem ich die Papiere einfach chronologisch staple. Ab und zu, wenn ich auf der Suche nach einem Glossenthema bin, stöbere ich so einen Stapel durch. Und wenn Einsturzgefahr droht, kann ich jeweils den untersten Meter zusammenschnüren und zum Altpapier geben. Oder vielleicht doch auf dem Dachboden lagern? Man kann ja nie wissen ..."
  10. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.00
    0.0011881187 = product of:
      0.0059405933 = sum of:
        0.0059405933 = weight(_text_:information in 2936) [ClassicSimilarity], result of:
          0.0059405933 = score(doc=2936,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.06788416 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
      0.2 = coord(1/5)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  11. Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009) 0.00
    0.0010657255 = product of:
      0.0053286273 = sum of:
        0.0053286273 = weight(_text_:on in 3224) [ClassicSimilarity], result of:
          0.0053286273 = score(doc=3224,freq=2.0), product of:
            0.109641045 = queryWeight, product of:
              2.199415 = idf(docFreq=13325, maxDocs=44218)
              0.049850095 = queryNorm
            0.048600662 = fieldWeight in 3224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.199415 = idf(docFreq=13325, maxDocs=44218)
              0.015625 = fieldNorm(doc=3224)
      0.2 = coord(1/5)
    
    Content
    Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
  12. Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002) 0.00
    0.0010183875 = product of:
      0.0050919373 = sum of:
        0.0050919373 = weight(_text_:information in 2107) [ClassicSimilarity], result of:
          0.0050919373 = score(doc=2107,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.058186423 = fieldWeight in 2107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
  13. Arnold, A.: Jetzt finden Sie alles schneller (2005) 0.00
    0.0010183875 = product of:
      0.0050919373 = sum of:
        0.0050919373 = weight(_text_:information in 74) [ClassicSimilarity], result of:
          0.0050919373 = score(doc=74,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.058186423 = fieldWeight in 74, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=74)
      0.2 = coord(1/5)
    
    Content
    "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen.
  14. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 3576) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=3576,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 3576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3576)
      0.2 = coord(1/5)
    
    Content
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
  15. Battelle, J.: ¬Die Suche : Geschäftsleben und Kultur im Banne von Google & Co. (2006) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 5956) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=5956,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 5956, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5956)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2 (M. Buzinkay): "Zum Autor: John Battelle ist freischaffender Journalist, Mitbegründer und Redakteur bei Wired sowie in weiteren Medienunternehmen der USA tätig. John Battelle betreibt seinen eigenen Fachblog, es ist unter http://battellemedia.com/ zu erreichen. Zum Inhalt: Die Geschichte der Suche ist so alt wie die der Menschheit - oder so ähnlich. Information und Wissen verschafften uns seit je her den Vorsprung, den wir zum Überleben brauchten, aber diese Ressourcen waren bis zuletzt nur begrenzt verfügbar. Im Zeitalter des Web scheint diese Grenze nicht mehr zu gelten, das Web offeriert 'alles'. John Battelle geht in seinem Buch diesem Mythos der Suche im Web-Zeitalter nach und zeichnet in einer anschaulichen und spannenden Art und Weise eine Geschichte von den Ursprüngen des Internets bis hin zu modernen Suchmaschinen. Er sieht in der Suche ein kulturelles Artefakt, und eine Schnittstelle zwischen Mensch und Maschine. Die Faszination, die Suchmaschinen auf den Autor ausüben, sind augenscheinlich: er bezeichnet ihren Index als Datenbank der Absichten, als die weltgrößte Sammlung an Ideen, Gedanken, Motiven, die die Menschheit je hervorgebracht hat. Durch die Suchbegriffe und die Handlungen, die im Web gesetzt werden, werden Interessen und Bedürfnisse offenbar und gleichzeitig dokumentiert und miteinander verbunden. Googles Zeitgeist ist nur die Spitze des Eisbergs - die Suchmaschinen haben ihre Fühler über uns ausgestreckt. Nach einer ausführlichen Einführung zum Thema Wie funktioniert eine Suchmaschine überhaupt?' erzählt uns Battelle die Geschichten von AltaVista, Yahoo, Google und vielen anderen Web-Pionieren, die es sich zur Aufgabe gemacht haben, das Wissen und die Informationen der Welt zu ordnen und damit auch ihr Geschäft zu machen. In den sehr authentischen Schilderungen gelingt es Battelle zu vermitteln, dass die Geschichte von Google & Co ganz anders hätte verlaufen können. Für europäische Leser sind das die faszinierendsten Seiten des Buches - wie können es zwei Studenten aus ihrem Studentenzimmer schaffen, das halbe Web zu durchleuchten, dann eine Firma zu gründen und innerhalb von fünf Jahren zu einem der mächtigsten Unternehmen der Welt aufzusteigen? Die unglaubliche Geschichte von Google wird an den beiden Gründern Page und Brin aufgehängt. Somit gelingt es Battelle, das einzelne Detail der Google-Story lebendig und nah darzustellen, aber auch viele Einsichten in die Psyche von Google zu präsentieren.
  16. Hähle, S.: Verborgenes Entdecken (2005) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 34) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=34,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=34)
      0.2 = coord(1/5)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
  17. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.00
    8.486562E-4 = product of:
      0.0042432807 = sum of:
        0.0042432807 = weight(_text_:information in 2678) [ClassicSimilarity], result of:
          0.0042432807 = score(doc=2678,freq=2.0), product of:
            0.08751074 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.049850095 = queryNorm
            0.048488684 = fieldWeight in 2678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.2 = coord(1/5)
    
    Content
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.

Years

Types

  • a 159
  • m 17
  • el 16
  • x 6
  • s 3
  • p 2
  • r 2
  • More… Less…