Search (574 results, page 1 of 29)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.12
    0.11546154 = product of:
      0.3463846 = sum of:
        0.066070646 = product of:
          0.19821192 = sum of:
            0.19821192 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.19821192 = score(doc=2514,freq=2.0), product of:
                0.35267892 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04159925 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.28031397 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.28031397 = score(doc=2514,freq=4.0), product of:
            0.35267892 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04159925 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.05
    0.05198411 = product of:
      0.10396822 = sum of:
        0.06368741 = weight(_text_:einzelne in 2403) [ClassicSimilarity], result of:
          0.06368741 = score(doc=2403,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 2403, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.029008562 = weight(_text_:der in 2403) [ClassicSimilarity], result of:
          0.029008562 = score(doc=2403,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3121784 = fieldWeight in 2403, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
        0.011272248 = product of:
          0.022544496 = sum of:
            0.022544496 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
              0.022544496 = score(doc=2403,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.15476047 = fieldWeight in 2403, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2403)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  3. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.05
    0.051106956 = product of:
      0.15332086 = sum of:
        0.12737481 = weight(_text_:einzelne in 5496) [ClassicSimilarity], result of:
          0.12737481 = score(doc=5496,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.52023137 = fieldWeight in 5496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
        0.025946045 = weight(_text_:der in 5496) [ClassicSimilarity], result of:
          0.025946045 = score(doc=5496,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27922085 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
      0.33333334 = coord(2/6)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
  4. Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997) 0.05
    0.047657773 = product of:
      0.14297332 = sum of:
        0.11914036 = weight(_text_:theorien in 716) [ClassicSimilarity], result of:
          0.11914036 = score(doc=716,freq=2.0), product of:
            0.27342868 = queryWeight, product of:
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.04159925 = queryNorm
            0.43572736 = fieldWeight in 716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.572923 = idf(docFreq=167, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
        0.023832968 = weight(_text_:der in 716) [ClassicSimilarity], result of:
          0.023832968 = score(doc=716,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.25648075 = fieldWeight in 716, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Datenmenge im WWW, welche in Form von Internet-Seiten über URLs zugänglich ist, wächst derzeit stark an. Um aus dieser Menge effizient eine Liste von URLs zu einem Thema oder Stichwort zu extrahieren, sind leistungsfähige Internet-Suchmaschinen mit einem möglichst umfassenden und aktuellen Datenbestand notwendig. Diese sind jedoch sowohl in ihren Eigenschaften wie Verarbeitungskapazität und Netzanbindung beschränkt als auch durch administrative Hindernisse wie das Robots Exclusion Agreement. Es ist daher notwendig, neuartige Algorithmen zur Sammlung von Internet-Seiten zu verwenden, welche empirisch gewonnenes Wissen über die Seitenstruktur berücksichtigen. Dieser Bericht präsentiert den aktuellen Stand der Optimierung des Datenbeschaffungsteils der bekannten deutschen Suchmaschine www.crawler.de durch die Integration von Mechanismen, welche die Aktualisierungsrate und die Verzeichnistiefe von Internet-Links berücksichtigen
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  5. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.04
    0.04209978 = product of:
      0.12629934 = sum of:
        0.09553111 = weight(_text_:einzelne in 3184) [ClassicSimilarity], result of:
          0.09553111 = score(doc=3184,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.39017352 = fieldWeight in 3184, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.030768223 = weight(_text_:der in 3184) [ClassicSimilarity], result of:
          0.030768223 = score(doc=3184,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3311152 = fieldWeight in 3184, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
  6. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.04
    0.038823694 = product of:
      0.07764739 = sum of:
        0.03980463 = weight(_text_:einzelne in 5938) [ClassicSimilarity], result of:
          0.03980463 = score(doc=5938,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.1625723 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.025640188 = weight(_text_:der in 5938) [ClassicSimilarity], result of:
          0.025640188 = score(doc=5938,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.27592933 = fieldWeight in 5938, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5938)
        0.012202567 = product of:
          0.024405135 = sum of:
            0.024405135 = weight(_text_:22 in 5938) [ClassicSimilarity], result of:
              0.024405135 = score(doc=5938,freq=6.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.16753313 = fieldWeight in 5938, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Im Rückblick klingt es unglaublich, dass viele Insider noch Ende der 90er Jahre sträflich das Potenzial einer zielführenden Suchmaschine unterschätzten - darunter auch die Verantwortlichen des großen Such-Dienstes AltaVista und des redaktionell betreuten Netzverzeichnisses Yahoo, das seine Kunden mit allerlei Diensten an sich zu binden suchte. Beide lehnten es früh ab, bei Google einzusteigen - später indes kooperierte Yahoo dann doch. "Niemand konnte sich für die Finanzierung von Suchanfragen begeistern", berichtet Buchautor David Wise. Getrieben von ihrer Idee, möglichst vielen Menschen möglichst alle Informationen des globalen Datennetzes zugänglich zu machen, wussten Brin und Page hingegen genau, dass sie auf dem richtigen Weg waren - und sie verfolgten ihn so unbeirrt wie Lenkraketen. Dabei behielten sie auch finanziell immer das Steuer in der Hand - keineswegs selbstverständlich gegen Ende der 90er Jahre, als die Internet-Euphorie und der Boom so genannter Dotcom-Unternehmen dazu führten, dass nahezu jedem großmäuligen Jung-Unternehmer Millionen Dollar, Pfund oder Mark an Risiko-Kapital in den Rachen gestopft wurden. Doch Brin und Page waren nicht nur standhaft und sparsam. Sie haben von Anfang an versucht, ihrer Belegschaft das Arbeiten bei Google möglichst angenehm zu machen, indem sie ihre Mitarbeiter so unentgeltlich wie exquisit verköstigten und ihr diverse Dienste bereitstellten - vom Kindergarten über Friseur und Wäscherei bis zum FitnessStudio. Obendrein erwarten sie bis heute, dass jeder Programmierer mindestens ein Fünftel seiner Arbeitszeit komplett darauf verwendet, eigenen Einfällen nachzuspüren und Neues auszuprobieren. Die so ermunterten Mitarbeiter haben nützliche Neuerungen hervorgebracht: von der - auf die USA beschränkten - Telefonnummern-Suche durch Eingabe von Namen und Postleitzahl ins Suchfeld über die automatische Korrektur von Eingabefehlern ("Meinten Sie:... ") bis hin zum Nachrichten-Service "Google News oder zum opulenten Foto-Archiv: Die Bildersuche hält heute rund 1,2 Milliarden Stück bereit. Auch Google Earth, das Satelliten-Aufnahmen auf den heimischen PC bringt, hat Aufsehen erregt.
    Date
    3. 5.1997 8:44:22
  7. Burckhardt, D.: Historische Rezensionen online : Eine thematische Suchmaschine von Clio-online (2007) 0.04
    0.03833022 = product of:
      0.11499065 = sum of:
        0.09553111 = weight(_text_:einzelne in 292) [ClassicSimilarity], result of:
          0.09553111 = score(doc=292,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.39017352 = fieldWeight in 292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
        0.019459534 = weight(_text_:der in 292) [ClassicSimilarity], result of:
          0.019459534 = score(doc=292,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
      0.33333334 = coord(2/6)
    
    Abstract
    Historische Rezensionen online (HR O) ist eine auf geschichtswissenschaftliche Rezensionen fokussierte Suchmaschine. Sie berücksichtigt ausschließlich fachwissenschaftliche Besprechungen, die im Web veröffentlicht wurden und ohne Zugangsbeschränkungen im Volltext zur Verfügung stehen. Eingebunden in das Portal des DFG-geförderten Kooperationsprojektes Clio-online sind über eine einfache Suchmaske gegenwärtig mehr als 35.000 Rezensionen zu über 30.000 Publikationen im Volltext recherchierbar. Statt unter hohem Aufwand Daten zu erstellen oder manuell zu katalogisieren, werden bei HRO bereits vorhandene Texte und bibliografische Daten voll automatisiert gesammelt, verknüpft und in einem zentralen Suchindex aufbereitet. Die Spezialisierung auf eine Textsorte und die Anreicherung der Rezensionstexte mit den in der Verbunddatenbank des GBV bereits erfassten bibliografischen Informationen erlauben zudem zielgerichtete Anfragen nach bestimmten Autoren oder eingeschränkt auf einzelne Themenbereiche, ein Mehrwert für die Nutzerinnen und Nutzer von HRO gegenüber kommerziellen Suchmaschinen.
  8. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.04
    0.035898894 = product of:
      0.10769668 = sum of:
        0.07960926 = weight(_text_:einzelne in 4063) [ClassicSimilarity], result of:
          0.07960926 = score(doc=4063,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.3251446 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.028087419 = weight(_text_:der in 4063) [ClassicSimilarity], result of:
          0.028087419 = score(doc=4063,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30226544 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.33333334 = coord(2/6)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  9. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.03
    0.034903906 = product of:
      0.10471171 = sum of:
        0.06368741 = weight(_text_:einzelne in 5523) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5523,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5523, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.0410243 = weight(_text_:der in 5523) [ClassicSimilarity], result of:
          0.0410243 = score(doc=5523,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 5523, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.33333334 = coord(2/6)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  10. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.03
    0.03302625 = product of:
      0.099078745 = sum of:
        0.0675507 = weight(_text_:einzelne in 52) [ClassicSimilarity], result of:
          0.0675507 = score(doc=52,freq=4.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.27589434 = fieldWeight in 52, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.03152805 = weight(_text_:der in 52) [ClassicSimilarity], result of:
          0.03152805 = score(doc=52,freq=42.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3392921 = fieldWeight in 52, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
      0.33333334 = coord(2/6)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
    Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
  11. Lewandowski, D.: Web Information Retrieval (2005) 0.03
    0.032670267 = product of:
      0.09801079 = sum of:
        0.06368741 = weight(_text_:einzelne in 4028) [ClassicSimilarity], result of:
          0.06368741 = score(doc=4028,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 4028, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.03432339 = weight(_text_:der in 4028) [ClassicSimilarity], result of:
          0.03432339 = score(doc=4028,freq=28.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.36937445 = fieldWeight in 4028, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.33333334 = coord(2/6)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
  12. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.03
    0.032254085 = product of:
      0.096762255 = sum of:
        0.06368741 = weight(_text_:einzelne in 431) [ClassicSimilarity], result of:
          0.06368741 = score(doc=431,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 431, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
        0.03307485 = weight(_text_:der in 431) [ClassicSimilarity], result of:
          0.03307485 = score(doc=431,freq=26.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35593814 = fieldWeight in 431, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.33333334 = coord(2/6)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    YaCy: Suchmaschine nach dem Peer-to-Peer-Prinzip. YaCy ist eine dezentrale, freie Suchmaschine. Die Besonderheit: die freie Suchmaschine läuft nicht auf zentralen Servern eines einzelnen Betreibers, sondern funktioniert nach dem Peer-to-Peer (P2P) Prinzip. Dieses basiert darauf, dass die YaCy-Nutzer aufgerufene Webseiten auf ihrem Computer lokal indexieren. Jeder Nutzer "ercrawlt" sich damit einen kleinen Index, den er durch Kommunikation mit anderen YaCy-Peers teilen kann. Das Programm sorgt dafür, dass durch die kleinen dezentralen Crawler einzelner Nutzer schließlich ein globaler Gesamtindex entsteht. Je mehr Nutzer Teil dieser dezentralen Suche sind, desto größer wird der gemeinsame Index, auf den der einzelne Nutzer dann Zugriff haben kann. Seit kurzem befindet sich YaCy im Verbund unserer abgefragten Suchmaschinen. Wir sind somit auch Teil des Indexes der Suchmaschine.
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  13. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.03
    0.0321122 = product of:
      0.0642244 = sum of:
        0.031843703 = weight(_text_:einzelne in 4871) [ClassicSimilarity], result of:
          0.031843703 = score(doc=4871,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.13005784 = fieldWeight in 4871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.02674457 = weight(_text_:der in 4871) [ClassicSimilarity], result of:
          0.02674457 = score(doc=4871,freq=68.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.28781426 = fieldWeight in 4871, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.005636124 = product of:
          0.011272248 = sum of:
            0.011272248 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.011272248 = score(doc=4871,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    An der Wurzel des Indexbaums Im ersten Schritt werden potenziell interessante Inhalte identifiziert und fortlaufend gesammelt. Spezielle Programme vom Typ so genannter Webtrawler können im Internet publizierte Seiten ausfindig machen, durchsuchen (inklusive darauf befindlicher Links) und die Seiten an einem Ort gesammelt speichern. Im zweiten Schritt erfasst das System die relevanten Wörter auf diesen Seiten und bestimmt mit statistischen Methoden deren Wichtigkeit. Drittens wird aus den relevanten Begriffen eine hocheffiziente baumartige Datenstruktur erzeugt, die diese Begriffe bestimmten Webseiten zuordnet. Gibt ein Nutzer eine Anfrage ein, wird nur der gesamte Baum - auch Index genannt - durchsucht und nicht jede einzelne Webseite. Die Suche beginnt an der Wurzel des Indexbaums, und bei jedem Suchschritt wird eine Verzweigung des Baums (die jeweils viele Begriffe und zugehörige Webseiten beinhaltet) entweder weiter verfolgt oder als irrelevant verworfen. Dies verkürzt die Suchzeiten dramatisch. Um die relevanten Fundstellen (oder Links) an den Anfang der Ergebnisliste zu stellen, greift der Suchalgorithmus auf verschiedene Sortierstrategien zurück. Eine verbreitete Methode - die Begriffshäufigkeit - untersucht das Vorkommen der Wörter und errechnet daraus numerische Gewichte, welche die Bedeutung der Wörter in den einzelnen Dokumenten repräsentieren. Häufige Wörter (wie »oder«, »zu«, »mit«), die in vielen Dokumenten auftauchen, erhalten deutlich niedrigere Gewichte als Wörter, die eine höhere semantische Relevanz aufweisen und nur in vergleichsweise wenigen Dokumenten zu finden sind. Webseiten können aber auch nach anderen Strategien indiziert werden. Die Linkanalyse beispielsweise untersucht Webseiten nach dem Kriterium, mit welchen anderen Seiten sie verknüpft sind. Dabei wird analysiert, wie viele Links auf eine Seite verweisen und von dieser Seite selbst ausgehen. Google etwa verwendet zur Optimierung der Suchresultate diese Linkanalyse. Sechs Jahre benötigte Google, um sich als führende Suchmaschine zu etablieren. Zum Erfolg trugen vor allem zwei Vorzüge gegenüber der Konkurrenz bei: Zum einen kann Google extrem große Weberawling-Operationen durchführen. Zum anderen liefern seine Indizierungsund Gewichtungsmethoden überragende Ergebnisse. In letzter Zeit jedoch haben andere Suchmaschinen-Entwickler einige neue, ähnlich leistungsfähige oder gar punktuell bessere Systeme entwickelt.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Vorsortiert und radförmig präsentiert Statt einfach nur die gewichtete Ergebnisliste zu präsentieren (die relativ leicht durch Spoofing manipuliert werden kann), versuchen einige Suchmaschinen, unter denjenigen Webseiten, die am ehesten der Anfrage entsprechen, Ähnlichkeiten und Unterschiede zu finden und die Ergebnisse in Gruppen unterteilt darzustellen. Diese Muster können Wörter sein, Synonyme oder sogar übergeordnete Themenbereiche, die nach speziellen Regeln ermittelt werden. Solche Systeme ordnen jeder gefundenen Linkgruppe einen charakteristischen Begriff zu. Der Anwender kann die Suche dann weiter verfeinern, indem er eine Untergruppe von Ergebnissen auswählt. So liefern etwa die Suchmaschinen »Northern Light« (der Pionier auf diesem Gebiet) und »Clusty« nach Gruppen (Clustern) geordnete Ergebnisse. »Mooter«, eine innovative Suchmaschine, die ebenfalls diese Gruppiertechnik verwendet, stellt die Gruppen zudem grafisch dar (siehe Grafik links unten). Das System ordnet die UntergruppenButtons radförmig um einen zentralen Button an, der sämtliche Ergebnisse enthält. Ein Klick auf die UntergruppenButtons erzeugt Listen relevanter Links und zeigt neue, damit zusammenhängende Gruppen. Mooter erinnert sich daran, welche Untergruppen gewählt wurden. Noch genauere Ergebnisse erhält der Nutzer, wenn er die Verfeinerungsoption wählt: Sie kombiniert bei früheren Suchen ausgewählte Gruppen mit der aktuellen Anfrage. Ein ähnliches System, das ebenfalls visuelle Effekte nutzt, ist »Kartoo«. Es handelt sich dabei um eine so genannte Meta-Suchmaschine: Sie gibt die Nutzeranfragen an andere Suchmaschinen weiter und präsentiert die gesammelten Ergebnisse in grafischer Form. Kartoo liefert eine Liste von Schlüsselbegriffen von den unterschiedlichen Webseiten und generiert daraus eine »Landkarte«. Auf ihr werden wichtige Seiten als kons (Symbole) dargestellt und Bezüge zwischen den Seiten mit Labeln und Pfaden versehen. Jedes Label lässt sich zur weiteren Verfeinerung der Suche nutzen. Einige neue Computertools erweitern die Suche dadurch, dass sie nicht nur das Web durchforsten, sondern auch die Festplatte des eigenen Rechners. Zurzeit braucht man dafür noch eigenständige Programme. Aber Google hat beispielsweise kürzlich seine »Desktop Search« angekündigt, die zwei Funktionen kombiniert: Der Anwender kann angeben, ob das Internet, die Festplatte oder beides zusammen durchsucht werden soll. Die nächste Version von Microsoft Windows (Codename »Longhorn«) soll mit ähnlichen Fähigkeiten ausgestattet werden: Longhorn soll die implizite Suche beherrschen, bei der Anwender ohne Eingabe spezifischer Anfragen relevante Informationen auffinden können. (Dabei werden Techniken angewandt, die in einem anderen Microsoft-Projekt namens »Stuff I've seen« - »Sachen, die ich gesehen habe« - entwickelt wurden.) Bei der impliziten Suche werden Schlüsselwörter aus der Textinformation gewonnen, die der Anwender in jüngster Zeit auf dem Rechner verarbeitet oder verändert hat - etwa E-Mails oder Word-Dokumente -, um damit auf der Festplatte gespeicherte Informationen wiederzufinden. Möglicherweise wird Microsoft diese Suchfunktion auch auf Webseiten ausdehnen. Außerdem sollen Anwender auf dem Bildschirm gezeigte Textinhalte leichter in Suchanfragen umsetzen können." ...
    Date
    22. 1.2006 18:34:49
    Source
    Spektrum der Wissenschaft. 2006, H.2, S.82-88
  14. Bischopinck, Y. von; Ceyp, M.: Suchmaschinen-Marketing : Konzepte, Umsetzung und Controlling (2007) 0.03
    0.031843707 = product of:
      0.19106223 = sum of:
        0.19106223 = weight(_text_:einzelne in 482) [ClassicSimilarity], result of:
          0.19106223 = score(doc=482,freq=8.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.78034705 = fieldWeight in 482, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.046875 = fieldNorm(doc=482)
      0.16666667 = coord(1/6)
    
    Classification
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    RVK
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
    QR 760 Wirtschaftswissenschaften / Gewerbepolitik. Einzelne Wirtschaftszweige / Industrie, Bergbau, Handel, Dienstleistungen, Handwerk / Öffentliche Versorgungseinrichtungen. Elektrizität. Gas. Wasser / Informationsgewerbe (Massenmedien). Post / Neue Medien. Online-Dienste (Internet u. a.)
  15. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.03
    0.029607069 = product of:
      0.0888212 = sum of:
        0.055726483 = weight(_text_:einzelne in 4442) [ClassicSimilarity], result of:
          0.055726483 = score(doc=4442,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.22760123 = fieldWeight in 4442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
        0.03309472 = weight(_text_:der in 4442) [ClassicSimilarity], result of:
          0.03309472 = score(doc=4442,freq=34.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.35615197 = fieldWeight in 4442, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    Wer bei horizobu, das in einer englischsprachigen und einer deutschsprachigen Version (für die Schweiz) angeboten wird, nach einem bestimmten Begriff sucht, dem präsentiert der Dienst lediglich sechs möglichst relevante Ergebnisse in voneinander separierten Boxen. Einzelne dieser Boxen lassen sich löschen, wodurch ein weiteres Suchergebnis ans Tageslicht befördert wird. Mit einem Klick auf "More" wechselt man alle sechs Resultate aus. Gefällige Resultate lassen sich per Drag-And-Drop in der rechten Spalte ablegen und für später aufbewahren. Um seinem Entdeckeranspruch gerecht zu werden, listet horizobu oberhalb der Suchergebnisse zehn mit dem jeweiligen Suchwort verwandte Begriffe, die beliebig kombinierbar zur Verfeinerung und Erweiterung der bisherigen Suche verwendet werden können. Inspiriert durch die Vorschläge haben User auch die Möglichkeit, weitere Begriffe zur Eingrenzung hinzufügen. "Die Intelligenz aus Social Software führt teilweise zu überraschenden Fundstücken, die bislang mit herkömmlichen Suchmaschinen kaum erschlossen wurden", so Werner Hartmann, Titularprofessor der ETH Zürich und einer der zwei Gründer von horizobu. Nachdem Nutzer mit den Resultaten ihrer Recherche zufrieden sind und diese womöglich mit der Bookmarking-Funktion gespeichert haben, kann die so entstandene Linksammlung direkt über einen eindeutigen Link weiterversendet werden (das sieht z.B. so aus). Diese Funktion ist zwar nicht revolutionär, aber simpel, intuitiv und erfordert wenige Klicks.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  16. Rensman, J.: Blick ins Getriebe (1999) 0.03
    0.02891439 = product of:
      0.08674317 = sum of:
        0.03891907 = weight(_text_:der in 4009) [ClassicSimilarity], result of:
          0.03891907 = score(doc=4009,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4188313 = fieldWeight in 4009, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4009)
        0.0478241 = product of:
          0.0956482 = sum of:
            0.0956482 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.0956482 = score(doc=4009,freq=4.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Internet-Surfer bekommt nur die Eingabeaufforderung und das Suchergebnis zu sehen. Hinter der Maske einer Suchmaschine laufen jedoch komplizierte Mechanismen ab
    Date
    22. 8.1999 21:22:59
  17. Google im Kaufrausch (2007) 0.03
    0.028719112 = product of:
      0.08615734 = sum of:
        0.06368741 = weight(_text_:einzelne in 2056) [ClassicSimilarity], result of:
          0.06368741 = score(doc=2056,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 2056, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2056)
        0.022469934 = weight(_text_:der in 2056) [ClassicSimilarity], result of:
          0.022469934 = score(doc=2056,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.24181235 = fieldWeight in 2056, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2056)
      0.33333334 = coord(2/6)
    
    Content
    Es fällt schwer, sich das Internet ohne Google vorzustellen. Denn was die beliebte Suchmaschine nicht findet, das existiert für die meisten Surfer nicht. Doch Google ist weit mehr als eine Suchmaschine. Egal ob E-Mails, Landkarten oder Weblogs, Oberall treffen Surfer auf Produkte des Internet-Riesen. Die Angebote kosten keinen Cent. Trotzdem zahlen die Nutzer dafür - indem sie einen Teil ihrer Privatsphäre Preisgehen. Denn Google sammelt fleißig User-Daten für den Verkauf von personalisierter Werbung. Und jeder neue G-Service verrät dem US-Unternehmen ein neues Detail über seine Fans. Beispiel YouTube: Zum Preis von 1,65 Milliarden Dollar übernahm Google das führende Videoportal und dominiert seitdem mit 60 Prozent den amerikanischen Markt für Kurzfilme im Web. Das Ziel auch hier: personalisierte Werbung in den Clips und detaillierte Informationen Ober die Nutzer - darüber etwa, welche Videoschnipsel sie mögen. Geldquelle: Google braucht User-Profile für die Werbung Gespenstisch muten die "zielgerichteten Anzeigen" beim E-Mail-Service Google Mail an: Wer hier mit Freunden über anstehende Urlaubsreisen mailt, bekommt nur Stunden später Werbung für die passenden Flüge und Hotels. Die Sammelwut von Google erschreckt auch Experten. So warnt Hendrik Speck, Professor für interaktive Online-Medien an der Fachhochschule Kaiserslautern: "Das vermeintlich kostenlose Suchangebot kommt einer Daten-Prostitution gleich, wenn wie bei Google Cookies gespeichert werden, die eine eindeutige Nutzer-Identifizierung bis zum Jahr 2038 vorsehen." Immerhin auf diese Kritik hört die Suchmaschine: Künftig verfallen die Cookies schon nach zwei Jahren.
    Das große Problem ist aber, dass Google gar nicht anders kann als Daten sammeln. Denn die auf einzelne Surfer speziell zugeschnittene Werbung ist fast die einzige Einnahmequelle des Web-Giganten: Im ersten Quartal dieses Jahres erwirtschaftete die Suchmaschine einen Umsatz von 3,66 Milliarden US-Dollar - die Werbe-Abteilung des Konzerns lieferte 98 Prozent davon. Zukunft: Neue 3D-Pläne für Werbung in Landkarten Kein Wunder also, dass Google bei jedem neuen Firmenkauf und jedem neuen Service nach Werbemöglichkeiten sucht. Jüngstes Opfer der Anzeigen-Flut sind RSS-Feeds, die üblicherweise News von Webseiten in einer Art Abo zusammenfassen. Mit der Übernahme der Firma FeedBurner dominiert Google nun auch in diesem Markt. FeedBurner sammelt RSS-Feeds und versieht sie mit Werbung. Genial für Google: Die Lesegewohnheiten der Nutzer sind eine erstklassige Grundlage für noch genauer zugeschnittene personalisierte Werbung. Doch die RSS-Schlagzeilen sind nur eine Kleinigkeit im Vergleich zum nächsten Coup: Derzeit durchkreuzen Autos US-Großstädte und fertigen mit Hilfe mehrerer Kameras Rundum-Aufnahmen an. Die Fotos werden in Google Earth eingebunden. Eigentlich ein netter Service für die User - aber auch eine geniale Werbefläche: Wer demnächst eine Kochshow bei YouTube abruft oder via Mail Freunde zum Essen einlädt, der bekommt bald einen Anzeigen-Link zum nächsten Supermarkt - inklusive 3D-Foto und animiertem Anfahrtsplan.
  18. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.03
    0.02692027 = product of:
      0.08076081 = sum of:
        0.047765557 = weight(_text_:einzelne in 3183) [ClassicSimilarity], result of:
          0.047765557 = score(doc=3183,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.19508676 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.032995246 = weight(_text_:der in 3183) [ClassicSimilarity], result of:
          0.032995246 = score(doc=3183,freq=46.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3550815 = fieldWeight in 3183, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.33333334 = coord(2/6)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
  19. Quaero: Google für Beamte : Suchmaschine für Europa (2006) 0.03
    0.026525352 = product of:
      0.07957605 = sum of:
        0.06368741 = weight(_text_:einzelne in 5097) [ClassicSimilarity], result of:
          0.06368741 = score(doc=5097,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 5097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=5097)
        0.015888644 = weight(_text_:der in 5097) [ClassicSimilarity], result of:
          0.015888644 = score(doc=5097,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.17098716 = fieldWeight in 5097, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5097)
      0.33333334 = coord(2/6)
    
    Abstract
    Der große Trendsetter im Internet war Europa noch nie - beim Thema Suchmaschinen hat der Alte Kontinent sogar riesigen Aufholbedarf. Das soll sich ändern: Acht Jahre nach dem Start von Google wollen Frankreich und Deutschland eine eigene Suchmaschine entwickeln. Codename: Quaero (lateinisch: "Ich suche."). Die Feature-Liste des potenziellen Google-Konkurrenten liest sich imposant - eine automatisierte Video-Indizierung, das Wandeln von Sprache zu Text und eine Bilderkennung werden ebenso genannt wie die Beantwortung von natürlich formulierten Fragen. Die Idee zu Quaero gibt es seit einem Jahr, fertig ist aber noch nichts. Frankreich begann direkt nach den ersten Gesprächen die Arbeiten an Quaero - in Deutschland geriet das ambitionierte Projekt aber ins Stocken. Grund: die vorgezogenen Bundestags-Wahlen. Frankreichs Staatspräsident Jacques Chirac hat das Thema sogar in seiner Neujahrsansprache aufgegriffen. Insider vermuten: Damit wollte er die Deutschen unter Druck setzen. Gefruchtet haben die Worte anscheinend nicht: Zwar finden "im Bundeswirtschaftsministerium Gespräche mit verschiedenen Unternehmen" statt, so ein Sprecher des Ministeriums gegenüber CHIP. Doch "noch gibt es keinen Plan zur Finanzierung". Eigentlich soll die internationale Kooperation bei Quaero so ähnlich wie beim Airbus-Konsortium funktionieren: Viele Firmen aus Deutschland und Frankreich entwickeln einzelne Bausteine - am Ende wird alles zusammengefügt. Die fertige Suchmaschine soll Google wie das Bastelprojekt eines Erstklässlers erscheinen lassen - sofern Quaero überhaupt einmal erscheint. Denn auch die Unternehmen zieren sich: Empolis, eine Tochter des Bertelsmann-Konzerns legt beispielsweise viel Wert darauf, dass man "entgegen anders lautender Medienberichte bei dem Quaero-Projekt nicht die Gesamtführung" übernehme. Man prüfe lediglich, "ob eine Mitarbeit für das Unternehmen von Interesse ist". Die Zurückhaltung ist verständlich. Schließlich weiß bisher niemand, wem denn die zukünftige Suchmaschine gehören soll. Die Behörden und die beteiligten Firmen werden wohl Zugriff auf Quaero bekommen. Aber die Öffentlichkeit könnte außen vor bleiben. "Die Art des öffentlichen Zugangs ist noch unklar", ist aus dem Bundeswirtschaftsministerium zu hören. Denkbar wäre ein Zugriff gegen Gebühr. Unwahrscheinlich, dass Google vor einem solchen "Rivalen" Angst hat. Wäre auch unnötig, wie aus dem Umfeld der Quaero-Entwickler zu hören ist: "Kein Mensch braucht ein zweites Google."
  20. Sander-Beuermann, W.; Anders, S.A.: "Besser den Marktführer meiden" : Experte warnt vor Datenhunger im Netz (2009) 0.03
    0.025553478 = product of:
      0.07666043 = sum of:
        0.06368741 = weight(_text_:einzelne in 2873) [ClassicSimilarity], result of:
          0.06368741 = score(doc=2873,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 2873, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
        0.012973023 = weight(_text_:der in 2873) [ClassicSimilarity], result of:
          0.012973023 = score(doc=2873,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.13961042 = fieldWeight in 2873, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2873)
      0.33333334 = coord(2/6)
    
    Content
    "Herr Sander-Beuermann, welche Suchmaschine nutzen Sie? MetaGer natürlich, weil ich weiß, was dahinter steckt und ich ihr voll vertrauen kann. Und weil ich immer das finde, was ich suche. .und weil Sie MetaGer an der Uni Hannover selbst entwickelt haben. Ja, deshalb weiß ich ja auch, was bei einer Suchabfrage im Hintergrund passiert. Bei anderen Suchmaschinen wissen die User das meist nicht. Jede Suchmaschine kann Nutzungsdaten protokollieren, und die großen werden das sicher auch tun. Es ist völlig offen, was dann mit diesen Daten passiert. Bei Benutzerzahlen von mehreren hundert Millionen in Kombination mit Erkenntnissen aus weiteren Online-Diensten können Informationen aus dem Surfverhalten gezogen werden, an die man sonst nie kommen würde. Etwa für Marktanalysen oder die Erhebung von Kaufverhalten. Was kann Google über mich persönlich erfahren? Informationen über einzelne Personen kann Google nur gewinnen, wenn sie neben der Suchmaschine auch andere Google-Tools nutzen, bei denen sie sich persönlich anmelden. Etwa Google Mail oder die Desktop-Werkzeuge von Google. Diese Informationen könnte Google kombinieren und daraus seine Schlüsse ziehen. Ist Bing eine Alternative? Durchaus. Die Qualität ist konkurrenzfähig, und es gibt bei Microsoft nicht die Fülle weiterer Dienste wie bei Google. Wenn aber das Windows-Betriebssystem die IP-Adresse an Microsoft übermitteln würde, wäre das enorm gefährlich. Diese Verbindung besteht aber meines Wissens nicht. Wie kann man also das Internet durchsuchen, ohne selbst durchsucht zu werden? Am besten sollten User sowohl beim Betriebssystem als auch bei den Suchmaschinen nicht den Marktführer benutzen. Und natürlich empfehle ich Suchmaschinen, die IP-Adressen nicht mitschreiben, wie zum Beispiel unser MetaGer oder auch Ixquick oder Scroogle. Die liefern gute Ergebnisse und sind im Hinblick auf den Datenschutz die bessere Alternative."

Years

Languages

  • d 452
  • e 117
  • nl 4
  • f 1
  • More… Less…

Types

  • a 469
  • el 63
  • m 50
  • x 10
  • s 9
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications