Search (57 results, page 1 of 3)

  • × theme_ss:"Suchmaschinen"
  • × type_ss:"el"
  1. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.01
    0.0133143775 = product of:
      0.06324329 = sum of:
        0.015081154 = weight(_text_:deutsche in 1163) [ClassicSimilarity], result of:
          0.015081154 = score(doc=1163,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.13043934 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.017261269 = weight(_text_:und in 1163) [ClassicSimilarity], result of:
          0.017261269 = score(doc=1163,freq=54.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3181036 = fieldWeight in 1163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.021565856 = weight(_text_:leben in 1163) [ClassicSimilarity], result of:
          0.021565856 = score(doc=1163,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.15598206 = fieldWeight in 1163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1163)
        0.009335013 = product of:
          0.018670026 = sum of:
            0.018670026 = weight(_text_:allgemein in 1163) [ClassicSimilarity], result of:
              0.018670026 = score(doc=1163,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.1451322 = fieldWeight in 1163, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1163)
          0.5 = coord(1/2)
      0.21052632 = coord(4/19)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  2. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.008772595 = product of:
      0.08333965 = sum of:
        0.060324617 = weight(_text_:deutsche in 1159) [ClassicSimilarity], result of:
          0.060324617 = score(doc=1159,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.52175736 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.023015026 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.023015026 = score(doc=1159,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.10526316 = coord(2/19)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  3. Christensen, A.: Wissenschaftliche Literatur entdecken : was bibliothekarische Discovery-Systeme von der Konkurrenz lernen und was sie ihr zeigen können (2022) 0.01
    0.0065315687 = product of:
      0.062049903 = sum of:
        0.043447077 = weight(_text_:literatur in 833) [ClassicSimilarity], result of:
          0.043447077 = score(doc=833,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.3704679 = fieldWeight in 833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
        0.018602824 = weight(_text_:und in 833) [ClassicSimilarity], result of:
          0.018602824 = score(doc=833,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 833, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=833)
      0.10526316 = coord(2/19)
    
    Abstract
    In den letzten Jahren ist das Angebot an Academic Search Engines für die Recherche nach Fachliteratur zu allen Wissenschaftsgebieten stark angewachsen und ergänzt die beliebten kommerziellen Angebote wie Web of Science oder Scopus. Der Artikel zeigt die wesentlichen Unterschiede zwischen bibliothekarischen Discovery-Systemen und Academic Search Engines wie Base, Dimensions oder Open Alex auf und diskutiert Möglichkeiten, wie beide von einander profitieren können. Diese Entwicklungsperspektiven betreffen Aspekte wie die Kontextualisierung von Wissen, die Datenmodellierung, die automatischen Datenanreicherung sowie den Zuschnitt von Suchräumen.
  4. Eversberg, B.: Zur Zukunft der Katalogisierung : ... jenseits RAK und AACR (2004) 0.01
    0.005520674 = product of:
      0.052446403 = sum of:
        0.026308365 = weight(_text_:und in 3632) [ClassicSimilarity], result of:
          0.026308365 = score(doc=3632,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.4848303 = fieldWeight in 3632, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3632)
        0.026138037 = product of:
          0.052276075 = sum of:
            0.052276075 = weight(_text_:allgemein in 3632) [ClassicSimilarity], result of:
              0.052276075 = score(doc=3632,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.40637016 = fieldWeight in 3632, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3632)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    "Katalogisierung" klingt in manchen Ohren altmodisch. Man redet heute von "Metadaten"! Gemeint ist aber nichts völlig anderes. Es gibt nur viele neue Formen, Praktiken und Nutzungen, während sich früher Katalogdaten fast nur in Katalogen und Bibliographien befanden. "Metadaten" ist nur ein neuer Oberbegriff, aber in einer Katalogdatenbank haben wir längst mehr und andersartige Datenelemente und Funktionen als in Zettelkatalogen. Es ist notwendig, weiter auszugreifen als es die klassischen Regelwerke, RAK und AACR, getan haben, und deren hergebrachte Konzepte zu überdenken.
    Footnote
    Präsentation zum Vortrag "Zur Zukunft der Katalogisierung" während des Österreichischen Bibliothekartages in Linz 22.09.2004, Themenkreis: Google und die Zukunft der bibliothekarischen Erschließung. - Zuletzt aktualisiert: 15.07.2008.
    Theme
    Katalogfragen allgemein
  5. Niemann, J.: "Ich cuil das mal" : Neue Suchmaschine fordert Google heraus (2008) 0.01
    0.0054215165 = product of:
      0.051504407 = sum of:
        0.02131221 = weight(_text_:und in 2049) [ClassicSimilarity], result of:
          0.02131221 = score(doc=2049,freq=42.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39275742 = fieldWeight in 2049, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2049)
        0.030192196 = weight(_text_:leben in 2049) [ClassicSimilarity], result of:
          0.030192196 = score(doc=2049,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.21837488 = fieldWeight in 2049, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2049)
      0.10526316 = coord(2/19)
    
    Abstract
    Die neue Suchmaschine "Cuil" ist mit ehrgeizigen Zielen und großen Worten online gegangen. Dass sie keine Nutzerdaten sammelt, macht sie attraktiv - ihre deutschen Suchergebnisse weniger.
    Content
    "Daran, dass der Suchmaschinen-Gigant Google immer und in allem der Größte und Beste sein muss, haben sich Internet-Nutzer aus aller Welt längst gewöhnt. Und als das Unternehmen am Wochenende in seinem offiziellen Blog damit angab, nun den Meilenstein von eine Billion gefundener eigenständiger URLs erreicht zu haben, war das eigentlich kaum noch ein Grund aufzuhorchen. Zumal bisher der Google-Index auf 30 bis 50 Milliarden geschätzt wurde und unklar ist, ob die angeblichen Billionen Links auch indexiert sind und nicht zu großen Teilen auch zu den selben Seiten führen. Wenn nun aber plötzlich eine andere, völlig neue Suchmaschine namens "Cuil" - gesprochen "Cool"- am Start ist und behauptet, 121 Milliarden Seiten zu durchsuchen und dabei überhaupt keine Nutzerdaten speichert, ist das hingegen schon ein Anlass zum Aufhorchen. Schließlich ist man angesichts der "Daten-Kraken"-Meldungen über Google und seine Speichermethoden dankbar für jede Alternative. Gegründet wurde Cuil im Jahre 2006 von dem Ehepaar Tom Costello, ein früherer IBM-Manager und Stanford-Professor und Anna Patterson, ehemalige Google-Mitarbeiterin, in Menlo Park in Kalifornien mit einem Startkapital von 33 Millionen Dollar und startete am Wochenende offiziell den Suchbetrieb. Der ist allerdings noch stark verbesserungsfähig. Während Cuil zu dem Begriff "Schwangerschaft" angeblich 6.768.056 Treffer aufweisen kann, die allerdings in ihrer Priorisierung von Medikamenten, Blogs und Büchern eher unbrauchbar sind, stehen dem englischsprachigen User unter dem Begriff Pregnancy immerhin 241.127.157 auf den ersten Blick sehr präzise Treffer zur Verfügung. Da erscheint die Aussage Costellos, man wolle "Suchenden content-basierte Ergebnisse präsentieren und nicht nur populäre" weniger absurd. Google hat beim selben deutschen Suchbegriff über acht Millionen Treffer, zu Pregnancy über 111 Millionen. Im englischen steht Cuil Google also nicht nach, während es im deutschsprachigen Bereich allerdings auch bei Namen, Orten und Wikipedia-Einträgen noch recht bescheiden aussieht.
    Viel interessanter als die imposante Zahl von 121 Milliarden, die für Sucher im Netz im Zweifelsfall viel Irrelevantes bedeutet, ist die von Google abweichende Suchergebnis-Anordnung in Spalten und zumindest der Wille, die Treffer thematisch zu ordnen und mit Bildern und beschreibendem Kontext zu versehen. Auch die Tatsache, dass laut Datenschutzrichtlinien die IP-Adressen nicht gespeichert werden und die in Cookies dokumentierten Daten über das Surfverhalten der Nutzer auch nicht, könnte potenzielle Nutzer eher locken als schiere Link-Masse. Denn Cuil ist bei weitem nicht das erste Konkurrenzprodukt von Google, erst kürzlich startete Wikipedia-Gründer Jimmy Wales das bisher ziemlich erfolglose "Wikia". Während Google in den USA laut New York Times 61,5 der Suchanfragen verbucht, hat Yahoo dort immerhin 20,9 Prozent und Microsofts Live Search 9,2 Prozent - also wäre es für Cuil schon mal ein Anfang, Microsoft Konkurrenz zu machen. Derzeit ist die neue Suchmaschine dem großen Anfrage-Ansturm allerdings nicht gewachsen und deshalb häufig nicht erreichbar."
    Source
    http://www.taz.de/1/leben/internet/artikel/1/cuil-ist-groesser-als-google/?type=98
  6. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.0050825328 = product of:
      0.04828406 = sum of:
        0.01841202 = weight(_text_:und in 3611) [ClassicSimilarity], result of:
          0.01841202 = score(doc=3611,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
        0.029872041 = product of:
          0.059744082 = sum of:
            0.059744082 = weight(_text_:allgemein in 3611) [ClassicSimilarity], result of:
              0.059744082 = score(doc=3611,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.46442303 = fieldWeight in 3611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3611)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
    Theme
    Katalogfragen allgemein
  7. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.00
    0.0043825996 = product of:
      0.041634697 = sum of:
        0.0248269 = weight(_text_:literatur in 136) [ClassicSimilarity], result of:
          0.0248269 = score(doc=136,freq=2.0), product of:
            0.11727622 = queryWeight, product of:
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.024482876 = queryNorm
            0.21169594 = fieldWeight in 136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7901325 = idf(docFreq=998, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
        0.016807798 = weight(_text_:und in 136) [ClassicSimilarity], result of:
          0.016807798 = score(doc=136,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3097467 = fieldWeight in 136, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
      0.10526316 = coord(2/19)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
  8. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.00
    0.00421701 = product of:
      0.040061593 = sum of:
        0.018495739 = weight(_text_:und in 1165) [ClassicSimilarity], result of:
          0.018495739 = score(doc=1165,freq=62.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34085333 = fieldWeight in 1165, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.021565856 = weight(_text_:leben in 1165) [ClassicSimilarity], result of:
          0.021565856 = score(doc=1165,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.15598206 = fieldWeight in 1165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.10526316 = coord(2/19)
    
    Content
    "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles.
    Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht.
    Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab.
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
    Footnote
    Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/
  9. Dambeck, H.: Wie Google mit Milliarden Unbekannten rechnet : Teil.1 (2009) 0.00
    0.0036321438 = product of:
      0.069010735 = sum of:
        0.069010735 = weight(_text_:leben in 3081) [ClassicSimilarity], result of:
          0.069010735 = score(doc=3081,freq=2.0), product of:
            0.13825856 = queryWeight, product of:
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.024482876 = queryNorm
            0.4991426 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.647154 = idf(docFreq=423, maxDocs=44218)
              0.0625 = fieldNorm(doc=3081)
      0.05263158 = coord(1/19)
    
    Abstract
    Ein Leben ohne Suchmaschinen? Für alle, die viel im World Wide Web unterwegs sind, eine geradezu absurde Vorstellung. Bei der Berechnung der Trefferlisten nutzt Google ein erstaunlich simples mathematisches Verfahren, das sogar Milliarden von Internetseiten in den Griff bekommt.
  10. Place, E.: Internationale Zusammenarbeit bei Internet Subject Gateways (1999) 0.00
    0.0034211897 = product of:
      0.032501303 = sum of:
        0.022550028 = weight(_text_:und in 4189) [ClassicSimilarity], result of:
          0.022550028 = score(doc=4189,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 4189, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4189)
        0.009951275 = product of:
          0.01990255 = sum of:
            0.01990255 = weight(_text_:22 in 4189) [ClassicSimilarity], result of:
              0.01990255 = score(doc=4189,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.23214069 = fieldWeight in 4189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4189)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
    Date
    22. 6.2002 19:35:09
  11. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.00
    0.0033347777 = product of:
      0.031680387 = sum of:
        0.01841202 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
          0.01841202 = score(doc=4996,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 4996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4996)
        0.013268366 = product of:
          0.026536733 = sum of:
            0.026536733 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.026536733 = score(doc=4996,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme.
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
  12. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.00
    0.0031512936 = product of:
      0.02993729 = sum of:
        0.015081154 = weight(_text_:deutsche in 3245) [ClassicSimilarity], result of:
          0.015081154 = score(doc=3245,freq=2.0), product of:
            0.11561814 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.024482876 = queryNorm
            0.13043934 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
        0.014856135 = weight(_text_:und in 3245) [ClassicSimilarity], result of:
          0.014856135 = score(doc=3245,freq=40.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.27378 = fieldWeight in 3245, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3245)
      0.10526316 = coord(2/19)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  13. Gillitzer, B.: Yewno (2017) 0.00
    0.0027155813 = product of:
      0.025798023 = sum of:
        0.01916384 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.01916384 = score(doc=3447,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.006634183 = product of:
          0.013268366 = sum of:
            0.013268366 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.013268366 = score(doc=3447,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.10526316 = coord(2/19)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  14. Bredemeier, W.: "Strategische Deökonomisierung und Demokratisierung der Informationszugänge" : Eine Alternative zu Google und den Sozialen Medien? (2022) 0.00
    0.0013542937 = product of:
      0.02573158 = sum of:
        0.02573158 = weight(_text_:und in 598) [ClassicSimilarity], result of:
          0.02573158 = score(doc=598,freq=30.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.47420087 = fieldWeight in 598, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.05263158 = coord(1/19)
    
    Abstract
    Gibt es eine Alternative zu Google? Sollte es sie geben? Die vorherrschende Kritik an den HighTech-Konzernen setzt an ihrer Marktmacht und deren Missbrauch an. Diesen ist politisch mit "Regulierung", "Sanktionierung" und "Sicherstellung von mehr Wettbewerb" zu begegnen. Evgeny Morozov, der aus Weißrussland stammende Technologie- und Internet-Kritiker, wurde mit den Büchern "The Net Delusion" (2011) und "To Save Everything Click Here" (2013), speziell in Deutschland als FAZ-Kolumnist bekannt. Mit seiner Kritik an den Tech-Konzernen setzt er grundsätzlicher als die in der öffentlichen Debatte dominierenden wirtschaftlichen Zusammenhänge an: Er fragt nach der Qualität, Relevanz und Originalität der suchbar und verfügbar gemachten Inhalte. Folgen wir ihm, so würde mehr Wettbewerb unter Suchmaschinen wenig nützen, wenn sich die neuen Player in den Kriterien, auf die ihre Algorithmen festgelegt sind, nicht von Google unterscheiden (und die aus technischer Sicht womöglich schlechter als Google sind).
    Morozov hat zudem eine Alternative zu Google geschaffen. Zumindest wird sein Dienst so in Teilen der Öffentlichkeit und im persönlichen Umfeld von Morozov wahrgenommen. Das Angebot trägt den Namen "The Syllabus" (auf Deutsch: "Das Register" oder "Das Verzeichnis"). www.the-syllabus.com. Das ist nach Sara Getz als Frontstellung gegen die "Attention Economy" zu verstehen, in der die Anbieter um die knappe Aufmerksamkeit ihrer Nutzer ringen. Wie erfolgreich sie dabei sind, wird nach Auflagenhöhen, Einschaltquoten, Klicks und "Likes" gemessen. Diese stellen einen Anreiz dar, kürzer, schriller, boulevardesker und oberflächlicher zu schreiben. Im Folgenden werden Beschreibungen und Bewertungen von "The Syllabus" seitens Sara Getz und Niklas Meek wiedergegeben. Hinzu kommen die Selbstbeschreibungen von Syllabus auf der eigenen Webseite und meine persönliche Bilanz, nachdem ich "The Syllabus" ein knappes Jahr genutzt habe.
  15. Hillenbrand, T.: Googles Zehn Gebote (2005) 0.00
    0.001271883 = product of:
      0.024165777 = sum of:
        0.024165777 = weight(_text_:und in 4314) [ClassicSimilarity], result of:
          0.024165777 = score(doc=4314,freq=54.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.44534507 = fieldWeight in 4314, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4314)
      0.05263158 = coord(1/19)
    
    Content
    "Und Mo der User irrte einsam durch die kalte Betonwüste und er wusste nicht wo Norden noch Süden war. "Weh mir", rief er, "ausgezogen war ich, den Tempel des Heiligen Saturn zu finden, auf dass mir seine Hohepriester einige jener kleinen Silberscheiben verkauften, zu wohlfeilen Preisen. Doch nun bin ich ganz verloren und weiß nicht, wohin ich meine Schritte lenken soll." Es begab sich aber, dass Mo an einer Taverne vorbeikam. "Preiset den Herrn", rief er aus, "diese bescheidene Tränke vermag mir nicht nur ein wohlschmeckend Heißgebräu mit Vanillearoma zu bereiten. Vermittels ihrer vermag ich auch die Götter des Internet um Rat anzuflehen." Und so öffnete er sein Ränzel, entnahm sein gesegnetes iBuch von Antiochia und klinkte sich in den Hotspot des Kaffeehökers ein. Alsdann betete Mo zu Google. Und er rief: "O allwissender Google. Ich suche den Tempel des edlen Saturn oder des erhabenen Conrad, auf dass ich einige Silberlinge zur Archivierung meiner Schriften erwerben könnte." Und so tippte Mo die Wörter "DVD Berlin" in sein magisches Büchlein. Und als er die Return-Taste betätigte, da vernahm er in der Ferne ein Donnergrollen und der Himmel verfinsterte sich. Und ein Blitz zuckte vom Himmel und fuhr in Mos treues iBuch und der Akku fing Feuer. Und es war viel Wehklagen und Geschrei in der Taverne. Diese Zeichen des Herrn trieben die Furcht in Mos Herz und er fiel vor dem brennenden Zauberbüchlein auf die Knie. Und plötzlich wurde er in den lodernden Flammen des mächtigen Google Antlitz' gewahr. Und jener sprach: "Mo, du Idiot! Du willst der Prophet der Suchmaschinen sein, aber du weißt ja nicht mal, wie man eine vernünftige Abfrage formuliert!" Mo warf sich zu Boden: "Allmächtiger, ich - ...". "Klappe, Mo!", zischte das iBuch. "Täglich wollen die Adepten Antworten von mir, doch kaum einer ist in der Lage, seine Fragen richtig zu stellen. Das nervt höllisch. Empfange nunmehr meine zehn Gebote der Internet-Suche. Und künde den anderen Usern davon immerdar." Und er sprach: Und Mo hob die Hände zum Himmel und rief: "Hosianna! Lob und Ehre sei Dir, O mächtiger und preisenswerter Gott der Suche. Umgehend will ich Deine Gebote meißeln in feinsten Marmor, auf dass ein jeder sie schaue!" Und ein weiteres grollendes Seufzen erschütterte die Taverne. "Marmor? Du hast es wahrlich nicht mit Löffeln gefressen, Mo. Poste es irgendwo im Netz, das geht viel schneller." Und so geschah es."
    Footnote
    Die 10 Google-Gebote: Du sollst ... 1. ... nie weniger als drei Begriffe eingeben 2. ... Artikel und Hilfsverben ächten 3. ... Nomen bevorzugen 4. ... "Phrasen in Anführungszeichen" setzen 5. ... Wörter gebrauchen, die du in deinen Ergebnissen zu finden erwartest 6. ... die Syntax des Heiligen Boole in Ehren halten 7. ... alles andere klein schreiben 8. ... auch die ehrwürdigen Verzeichnisse befragen 9. ... andere Suchmaschinen haben neben mir 10. ... auch der Auskunft und dem Telefon huldigen
  16. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.00
    0.001260779 = product of:
      0.0239548 = sum of:
        0.0239548 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.0239548 = score(doc=3068,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
      0.05263158 = coord(1/19)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  17. Dunning, A.: Do we still need search engines? (1999) 0.00
    0.0012220864 = product of:
      0.023219641 = sum of:
        0.023219641 = product of:
          0.046439283 = sum of:
            0.046439283 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.046439283 = score(doc=6021,freq=2.0), product of:
                0.08573486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024482876 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Source
    Ariadne. 1999, no.22
  18. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.00
    0.0012193657 = product of:
      0.02316795 = sum of:
        0.02316795 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.02316795 = score(doc=5938,freq=38.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42695636 = fieldWeight in 5938, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.05263158 = coord(1/19)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  19. Graf, K.: Großer Suchmaschinentest 2021 : Alternativen zu Google? (2021) 0.00
    0.0012113171 = product of:
      0.023015026 = sum of:
        0.023015026 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
          0.023015026 = score(doc=2443,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.42413816 = fieldWeight in 2443, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2443)
      0.05263158 = coord(1/19)
    
    Abstract
    Weg von Google: Die besten Suchmaschinen-Alternativen, lautet der Titel eines Artikels im Standard. Und wieder ist meine Antwort, dass es dumm und töricht wäre, für wissenschaftliche Zwecke auf eine Google-Direktabfrage zu verzichten. Insbesondere die Einbindung von Ergebnissen aus Google Books, zu dem man direkt wechseln kann, und Google Scholar, macht die Google Websuche unverzichtbar.
  20. Franke-Maier, M.; Rüter, C.: Discover Sacherschließung! : Was machen suchmaschinenbasierte Systeme mit unseren inhaltlichen Metadaten? (2015) 0.00
    0.0011991428 = product of:
      0.022783713 = sum of:
        0.022783713 = weight(_text_:und in 1706) [ClassicSimilarity], result of:
          0.022783713 = score(doc=1706,freq=12.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41987535 = fieldWeight in 1706, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
      0.05263158 = coord(1/19)
    
    Abstract
    Discovery Systeme erlauben einen neuen und anderen Zugriff auf verfügbare Ressourcen einer Bibliothek als die traditionellen Online-Kataloge. Daraus ergeben sich Probleme, aber auch Chancen für die Nutzung und Sichtbarkeit der bibliothekarischen Sacherschließung. Der Vortrag gibt einen Einblick in die Funktionalitäten und Funktionsweisen von Discovery Systemen am Beispiel eines großen Players, Primo von ExLibris, sowie die Auswirkungen auf bibliothekarische inhaltliche Metadaten. Es werden Chancen und Grenzen der Technik beleuchtet. Der Vortrag schließt mit der Reflektion der Implikationen für die Arbeit im Fachreferat.
    Content
    Präsentation zur Fortbildungsveranstaltung für Fachreferentinnen und Fachreferenten der Politikwissenschaft und Soziologie, 23.01.2015.