Search (290 results, page 1 of 15)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.37
    0.36699742 = product of:
      0.8563273 = sum of:
        0.029241884 = product of:
          0.11696754 = sum of:
            0.11696754 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.11696754 = score(doc=2514,freq=2.0), product of:
                0.20812061 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.024548283 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.25 = coord(1/4)
        0.16541708 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16541708 = score(doc=2514,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16541708 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16541708 = score(doc=2514,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16541708 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16541708 = score(doc=2514,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16541708 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16541708 = score(doc=2514,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.16541708 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.16541708 = score(doc=2514,freq=4.0), product of:
            0.20812061 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.024548283 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.42857143 = coord(6/14)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.01
    0.012683173 = product of:
      0.088782206 = sum of:
        0.04538781 = weight(_text_:bedeutung in 4885) [ClassicSimilarity], result of:
          0.04538781 = score(doc=4885,freq=14.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.36758357 = fieldWeight in 4885, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
        0.043394394 = weight(_text_:semantik in 4885) [ClassicSimilarity], result of:
          0.043394394 = score(doc=4885,freq=4.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.26277635 = fieldWeight in 4885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4885)
      0.14285715 = coord(2/14)
    
    Abstract
    Google und Co. sind auf dem Weg in die Sackgasse. Die Zukunft gehört der Suche mit Intelligenz und Bedeutung. Denn dann hat die Suche Sinn und Verstand
    Content
    "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
    Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"
  3. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.01125198 = product of:
      0.07876386 = sum of:
        0.07523615 = weight(_text_:donald in 3080) [ClassicSimilarity], result of:
          0.07523615 = score(doc=3080,freq=4.0), product of:
            0.19849665 = queryWeight, product of:
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.024548283 = queryNorm
            0.3790298 = fieldWeight in 3080, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.085969 = idf(docFreq=36, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.0035277065 = product of:
          0.014110826 = sum of:
            0.014110826 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.014110826 = score(doc=3080,freq=4.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
  4. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.01
    0.008678879 = product of:
      0.1215043 = sum of:
        0.1215043 = weight(_text_:semantik in 345) [ClassicSimilarity], result of:
          0.1215043 = score(doc=345,freq=4.0), product of:
            0.16513813 = queryWeight, product of:
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.024548283 = queryNorm
            0.73577374 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.727074 = idf(docFreq=143, maxDocs=44218)
              0.0546875 = fieldNorm(doc=345)
      0.071428575 = coord(1/14)
    
    Abstract
    In diesem Kapitel wird ein Überblick über bestehende semantische Suchmaschinen gegeben. Insgesamt werden 95 solcher Suchdienste identifiziert und im Rahmen einer Inhaltsanalyse verglichen. Es kann festgestellt werden, dass die Semantische Suche sich wesentlich von den im Rahmen des Semantic Web propagierten Technologien unterscheidet und Semantik in den betrachteten Suchmaschinen weiter zu fassen ist. Die betrachteten Suchmaschinen werden in ein Stufenmodell, welches nach dem Grad der Semantik unterscheidet, eingeordnet. Das Kapitel schließt mit 8 Thesen zum aktuellen Stand der semantischen Suche.
  5. Koenemann, J.; Lindner, H.-G.; Thomas, C.: Unternehmensportale : Von Suchmaschinen zum Wissensmanagement (2000) 0.01
    0.0075465906 = product of:
      0.052826133 = sum of:
        0.048033938 = weight(_text_:bedeutung in 5233) [ClassicSimilarity], result of:
          0.048033938 = score(doc=5233,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.38901386 = fieldWeight in 5233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5233)
        0.0047921934 = product of:
          0.019168774 = sum of:
            0.019168774 = weight(_text_:j in 5233) [ClassicSimilarity], result of:
              0.019168774 = score(doc=5233,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.24574696 = fieldWeight in 5233, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5233)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Aufgabe des Wissensmanagements ist es, den Mitarbeitern im Unternehmen entscheidungs- und handlungsrelevante Informationen bereitzustellen und die Mitarbeiter bei der intelligenten Verarbeitung dieser Informationen zu unterstützen. Ein hierzu genutztes Werkzeug von wachsender Bedeutung sind Unternehmensportale. Wir beschreiben kurz die Entwicklung von Portalen im World Wide Web (WWW), um dann Web-Portale von verschiedenen Arten von Unternehmensportalen abzugrenzen. Wir zeigen erwartete Funktionalitäten auf und stellen ein 5-Schichten Modell einer Gesamtarchitektur für Portale dar, welche die wesentlichen Komponenten umfasst. Im Anschluss werden die Besonderheiten der organisatorischen Realisierung und im Ausblick der Übergang von Portalen zum ,ubiquitous personalized information supply", der überall verfügbaren und individuellen Informationsversorgung behandelt
  6. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.01
    0.0065944116 = product of:
      0.04616088 = sum of:
        0.04117195 = weight(_text_:bedeutung in 1491) [ClassicSimilarity], result of:
          0.04117195 = score(doc=1491,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.33344045 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.046875 = fieldNorm(doc=1491)
        0.00498893 = product of:
          0.01995572 = sum of:
            0.01995572 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.01995572 = score(doc=1491,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Wenn man die Recherche in Suchmaschinen als Vorbereitung einer Entscheidung betrachtet, kommt diesen Suchwerkzeugen aufgrund der Masse der an sie ge­stellten Anfragen eine nicht zu unterschätzende Bedeutung zu. Macht haben Suchmaschinen vor allem dadurch, dass sie entscheiden, was ein Nutzer zu seiner Suchanfrage zu sehen bekommt, verstärkt durch die ­Entscheidung, an welcher Stelle und in welcher Darstellungsform die Ergebnisse angezeigt werden. Im Suchprozess gibt es zahlreiche Stellen, an denen das Design der Suchmaschine die Entscheidung des Nutzers für oder gegen bestimmte Ergebnisse beeinflusst. Zusammen mit der externen Beeinflussung der Suchergebnisse durch sog. Suchmaschinenoptimierung ergibt sich eine Steuerung der Nutzer hin zu bestimmten Ergebnissen und ­Ergebnisformen. Der Artikel zeigt, wo Suchmaschinen Einfluss auf unsere Entscheidungsvorbereitung bzw. Entscheidungsfindung nehmen, an welchen Punkten dem durch einen bewussteren Umgang mit den Suchmaschinen entgegengewirkt werden kann, aber auch wo die Grenzen der eigenen Entscheidungsmöglichkeiten liegen.
    Date
    22. 9.2014 18:54:11
  7. Gasser, U.; Thurman, J.: Themen und Herausforderungen der Regulierung von Suchmaschinen (2007) 0.01
    0.0064685065 = product of:
      0.045279544 = sum of:
        0.04117195 = weight(_text_:bedeutung in 382) [ClassicSimilarity], result of:
          0.04117195 = score(doc=382,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.33344045 = fieldWeight in 382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.046875 = fieldNorm(doc=382)
        0.0041075945 = product of:
          0.016430378 = sum of:
            0.016430378 = weight(_text_:j in 382) [ClassicSimilarity], result of:
              0.016430378 = score(doc=382,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.21064025 = fieldWeight in 382, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.046875 = fieldNorm(doc=382)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Mit der rasanten Entwicklung der Suchmaschinentechnologien sowie der wachsenden Marktkraft von einzelnen Suchmaschinenanbietern und deren steigender Bedeutung im Blick auf den Informationszugang verändert sich nicht nur die Anzahl, sondern auch die Qualität derjenigen Konflikte, welche die Gerichte, Gesetzgeber und Behörden in den USA und in Europa beschäftigen. Das vorliegende Kapitel zeichnet - basierend auf einer andernorts vorgelegten Detailanalyse - in groben Umrissen diese Geschichte der Entstehung eines >Rechts der Suchmaschinen< nach und diskutiert sodann ausführlicher, welche Debattenthemen in der sich entfaltenden Regulierungsdiskussion eine besonders prominente Rolle spielen und die eher punktuellen rechtlichen Interventionen aus der ersten Regulierungswelle abzulösen scheinen. Daran anschließend werden die zentralen Herausforderungen beleuchtet, welchen sich nationale Gesetzgeber bei ihren Regulierungsbemühungen gegenüber sehen. Im letzten Teil des Kapitels wird der Bedarf nach einer systematischen Evaluation von alternativen (und teilweise konkurrierenden) Ansätzen der Suchmaschinenregulierung illustriert und zum Schluss grundlegende Wertungen eines demokratisch strukturierten informationellen Ökosystems diskutiert, aus welchen normative Kriterien für die kritische Beurteilung von nunmehr in steigender Kadenz vorgelegten Vorschlägen zur >Suchmaschinen-Governance< abgeleitet werden können.
  8. Trkulja, V.: Suche ist überall, Semantic Web setzt sich durch, Renaissance der Taxonomien (2005) 0.01
    0.005881707 = product of:
      0.0823439 = sum of:
        0.0823439 = weight(_text_:bedeutung in 3295) [ClassicSimilarity], result of:
          0.0823439 = score(doc=3295,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.6668809 = fieldWeight in 3295, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.09375 = fieldNorm(doc=3295)
      0.071428575 = coord(1/14)
    
    Abstract
    Ein Schwerpunkt der Online Information 2004 bildete das Thema "Search": Wie wird die Suche in 2005 aussehen? Welche Bedeutung haben Taxonomien? Wie verändern sich Suchfunktionen?
  9. Sadrozinski, J.: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de (2007) 0.01
    0.005390422 = product of:
      0.03773295 = sum of:
        0.034309957 = weight(_text_:bedeutung in 375) [ClassicSimilarity], result of:
          0.034309957 = score(doc=375,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27786705 = fieldWeight in 375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=375)
        0.003422995 = product of:
          0.01369198 = sum of:
            0.01369198 = weight(_text_:j in 375) [ClassicSimilarity], result of:
              0.01369198 = score(doc=375,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 375, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=375)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Während ich diese Zeilen schreibe, hat Google gerade die Videoplattform YouTube gekauft - ein weiterer Baustein auf dem Weg zum sowohl marktbeherrschenden Instrument als auch dominierenden Anbieter im Internet. Die FAZ vermutet, dass sich die Fernsehlandschaft durch den »Google-Coup« verändern wird. Doch nicht erst seit dieser Entwicklung müssten sich die öffentlich-rechtlichen Rundfunkanstalten und insbesondere die Onlineredaktionen Gedanken über ihren Umgang mit Suchmaschinen und -portalen machen. Ich habe nun gleich zu Beginn dieses Kapitels das Thema >Suchmaschinen< auf Google reduziert. Über Suchmaschinen zu schreiben heißt jedoch, sich in erster Linie mit Google auseinander zu setzen. Google ist das meistgenutzte, reichweitenstärkste, wertvollste Medienunternehmen der Welt. Und Google ist auch bei tagesschau.de, der zentralen Online-Nachrichtenredaktion der ARD, die meistgenutzte Suchmaschine. Google ist für uns einerseits Rechercheinstrument, andererseits ist es für viele Nutzer Zugangsportal zu unseren Inhalten (über die Treffer bei der Suche oder über den Service >Google News<). Google hat somit eine doppelte Bedeutung für die journalistische Arbeit bei tagesschau.de: Die Qualität und die Quantität der Suchergebnisse, die durch die Benutzung von Google als Suchinstrument erzielt werden, können unsere Berichterstattung beeinflussen. Die Treffer wiederum, die auf Inhalte bei tagesschau.de führen, sorgen dafür, dass unsere Artikel häufiger gefunden und gelesen werden.
  10. Linten, M.: "Was ist eine Wanderdüne?" (2012) 0.01
    0.005390422 = product of:
      0.03773295 = sum of:
        0.034309957 = weight(_text_:bedeutung in 177) [ClassicSimilarity], result of:
          0.034309957 = score(doc=177,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.27786705 = fieldWeight in 177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0390625 = fieldNorm(doc=177)
        0.003422995 = product of:
          0.01369198 = sum of:
            0.01369198 = weight(_text_:j in 177) [ClassicSimilarity], result of:
              0.01369198 = score(doc=177,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.17553353 = fieldWeight in 177, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=177)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Seit gefühlten Ewigkeiten stellen Kinder und Jugendliche - sei es aus Neugier oder zur Erledigung von Hausaufgaben - ihren Eltern konkrete Fragen und erwarten von diesen ad hoc verständliche und im besten Fall druckreife Antworten. Bei der Frage nach der Wanderdüne wurden erste kognitive Anstrengungen durch den Ratschlag des 10-jährigen Sohnes konterkariert: "Musst Du mal goggeln!". Um nicht als informations kompetenter Besserwisser geoutet zu werden, der vielleicht den Suchmaschinenprimus Google etymologisch und auch sonst ganz gut erklären könnte, stand recht unvermittelt die Frage im Raum, wo methodisch sinnvoll aufb ereitete Informationen für Schülerinnen und Schüler im Web zu fi nden sind bzw. welche Portale, Informationssysteme oder gar Suchmaschinen zur Annäherung an die "Wanderdüne" besonders geeignet wären. Ein schneller Klick bei Google hätte dann geschätzte bzw. zufällig generierte 434.000 Treff er (zehn Minuten später waren es schon 436.000) ergeben, wobei selbstredend zwei Wikipedia-Beiträge auf den ersten beiden Plätzen stünden. Allerdings widmet die Wikipedia der Wanderdüne keine eigene Abhandlung. Betrachtet man die weiteren fi rst page results, die ja bekanntlich von essentieller Bedeutung für unser Informationsverhalten im Web sind, so tauchen mit sylt-2000.de und reise-nach-ostpreussen. de zwei nicht-kommerzielle Sympathisanten der beiden Reiseziele auf, bevor der ein oder andere Kamelliebhaber auf Platz 5 mit dem Serendipity-Eff ekt belohnt wird: ein Exzerpt aus Kamelopedia, der freien Kamel-Enzyklopädie! Mit dem Beitrag "Wanderdünen singen, reisen und sterben" aus dem Wissensteil der überregionalen Tageszeitung "Die Welt" vom Juli 2009 fi ndet sich nach visuellen Eindrücken zum Suchwort immerhin eine Quelle, die im Hinblick auf Seriosität und inhaltlicher Qualität durchaus punkten kann - wenn auch eher für Fortgeschrittene bzw. Menschen im fortgeschrittenen Alter gedacht.
    Content
    Vgl.: http://www.degruyter.com/view/j/iwp.2012.63.issue-2/iwp-2012-0008/iwp-2012-0008.xml?format=INT.
  11. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.01
    0.0053827777 = product of:
      0.03767944 = sum of:
        0.036310244 = weight(_text_:bedeutung in 3635) [ClassicSimilarity], result of:
          0.036310244 = score(doc=3635,freq=14.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.29406685 = fieldWeight in 3635, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0013691981 = product of:
          0.0054767923 = sum of:
            0.0054767923 = weight(_text_:j in 3635) [ClassicSimilarity], result of:
              0.0054767923 = score(doc=3635,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.070213415 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  12. Gillitzer, B.: Yewno (2017) 0.00
    0.004396274 = product of:
      0.03077392 = sum of:
        0.027447965 = weight(_text_:bedeutung in 3447) [ClassicSimilarity], result of:
          0.027447965 = score(doc=3447,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.22229363 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0033259534 = product of:
          0.0133038135 = sum of:
            0.0133038135 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.0133038135 = score(doc=3447,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  13. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.00
    0.0042403573 = product of:
      0.029682498 = sum of:
        0.020585975 = weight(_text_:bedeutung in 2617) [ClassicSimilarity], result of:
          0.020585975 = score(doc=2617,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.16672023 = fieldWeight in 2617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2617)
        0.009096525 = product of:
          0.01819305 = sum of:
            0.008215189 = weight(_text_:j in 2617) [ClassicSimilarity], result of:
              0.008215189 = score(doc=2617,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.105320126 = fieldWeight in 2617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2617)
            0.00997786 = weight(_text_:22 in 2617) [ClassicSimilarity], result of:
              0.00997786 = score(doc=2617,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.116070345 = fieldWeight in 2617, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2617)
          0.5 = coord(2/4)
      0.14285715 = coord(2/14)
    
    Content
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
    Date
    5. 1.1997 9:39:22
  14. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.00
    0.004158995 = product of:
      0.058225926 = sum of:
        0.058225926 = weight(_text_:bedeutung in 378) [ClassicSimilarity], result of:
          0.058225926 = score(doc=378,freq=4.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.471556 = fieldWeight in 378, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
      0.071428575 = coord(1/14)
    
    Abstract
    Suchmaschinen bilden den bedeutendsten Zugang zu den im World Wide Web verfügbaren Informationen und haben andere Zugänge zu diesem Informationsbestand (wie etwa Internetverzeichnisse) weitgehend verdrängt. Der Suchmaschinenmarkt ist stark konzentriert; nur wenige Anbieter mit eigener Technologie bieten selbst Endnutzerlösungen an und lizenzieren ihre Technologie an die bekannten Web-Portale wie AOL oder T-Online. Die im vorliegenden Kapitel dargestellten Kennzahlen zur Messung der Qualität von Suchmaschinen basieren einerseits auf Erkenntnissen über den State of the Art der Suchmaschinentechnologie, andererseits stehen sie im Kontext eines umfassenderen Modells der Qualitätsmessung für Web-Suchmaschinen. Die besondere Bedeutung von Erkenntnissen über die Qualität der bestehenden Suchmaschinen ergibt sich einerseits aus ihrer Bedeutung für die Weiterentwicklung der Suchmaschinentechnologie. Qualitätsuntersuchungen geben Hinweise auf die Schwachstellen der Suchmaschinen im Allgemeinen und die ihrer Ranking-Algorithmen im Besonderen. Letztere sind als zentral für die Ergebnisqualität anzusehen und bilden den >Kern< der technologischen Leistungsfähigkeit einer jeden Suchmaschine.
  15. Lewandowski, D.: Suchmaschinen verstehen (2018) 0.00
    0.004158995 = product of:
      0.058225926 = sum of:
        0.058225926 = weight(_text_:bedeutung in 4293) [ClassicSimilarity], result of:
          0.058225926 = score(doc=4293,freq=4.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.471556 = fieldWeight in 4293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.046875 = fieldNorm(doc=4293)
      0.071428575 = coord(1/14)
    
    Abstract
    Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarktes, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die mit Suchmaschinen zu tun haben und ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare, Rechercheure in Wissenschaft und Praxis sowie Online-Marketing-Verantwortliche. Für die zweite Auflage wurde der Text vollständig überarbeitet. Neben einem neuen Kapitel zur Suchmaschinenwerbung wurden zahlreiche Abschnitte zu neu aufgekommenen Themen hinzugefügt. Alle Statistiken und Quellen wurden auf den neuesten Stand gebracht.
  16. Hülsmann, M.: So suchen die Profis : Suchanfragen optimieren (1998) 0.00
    0.003921138 = product of:
      0.05489593 = sum of:
        0.05489593 = weight(_text_:bedeutung in 2409) [ClassicSimilarity], result of:
          0.05489593 = score(doc=2409,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.44458726 = fieldWeight in 2409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0625 = fieldNorm(doc=2409)
      0.071428575 = coord(1/14)
    
    Abstract
    Man kann im Internet alles finden, wenn man richtig sucht. Dabei ist nicht nur die Auswahl des geeigneten suchdienstes und das Ausknobeln der besten Suchbegriffe von Bedeutung, sondern auch das Ausnutzen der vielfältigen Möglichkeiten, die diese Dienste bieten. Wie Sie mit 3 der wichtigsten Suchmaschinen zu optimalen Ergebnissen kommen, zeigen wir Ihnen in diesem Artikel
  17. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.00
    0.003921138 = product of:
      0.05489593 = sum of:
        0.05489593 = weight(_text_:bedeutung in 349) [ClassicSimilarity], result of:
          0.05489593 = score(doc=349,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.44458726 = fieldWeight in 349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
  18. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.00
    0.00384674 = product of:
      0.026927179 = sum of:
        0.024016969 = weight(_text_:bedeutung in 5114) [ClassicSimilarity], result of:
          0.024016969 = score(doc=5114,freq=2.0), product of:
            0.12347616 = queryWeight, product of:
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.024548283 = queryNorm
            0.19450693 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0299306 = idf(docFreq=785, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.0029102094 = product of:
          0.011640837 = sum of:
            0.011640837 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
              0.011640837 = score(doc=5114,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.1354154 = fieldWeight in 5114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5114)
          0.25 = coord(1/4)
      0.14285715 = coord(2/14)
    
    Date
    12. 2.1996 22:34:46
  19. Rensman, J.: Blick ins Getriebe (1999) 0.00
    0.0031894308 = product of:
      0.04465203 = sum of:
        0.04465203 = product of:
          0.08930406 = sum of:
            0.032860756 = weight(_text_:j in 4009) [ClassicSimilarity], result of:
              0.032860756 = score(doc=4009,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4212805 = fieldWeight in 4009, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
            0.056443304 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.056443304 = score(doc=4009,freq=4.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(2/4)
      0.071428575 = coord(1/14)
    
    Date
    22. 8.1999 21:22:59
  20. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.0030321751 = product of:
      0.04245045 = sum of:
        0.04245045 = product of:
          0.0849009 = sum of:
            0.038337547 = weight(_text_:j in 3445) [ClassicSimilarity], result of:
              0.038337547 = score(doc=3445,freq=2.0), product of:
                0.07800208 = queryWeight, product of:
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.024548283 = queryNorm
                0.4914939 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1774964 = idf(docFreq=5010, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
            0.04656335 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.04656335 = score(doc=3445,freq=2.0), product of:
                0.085963905 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024548283 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(2/4)
      0.071428575 = coord(1/14)
    
    Date
    25. 8.2005 17:42:22

Years

Languages

  • d 157
  • e 128
  • nl 3
  • f 2
  • More… Less…

Types

  • a 245
  • m 25
  • el 21
  • x 5
  • s 4
  • p 2
  • r 2
  • More… Less…

Subjects