Search (92 results, page 1 of 5)

  • × theme_ss:"Suchmaschinen"
  • × type_ss:"el"
  1. Place, E.: Internationale Zusammenarbeit bei Internet Subject Gateways (1999) 0.03
    0.033612855 = product of:
      0.06722571 = sum of:
        0.009274333 = weight(_text_:in in 4189) [ClassicSimilarity], result of:
          0.009274333 = score(doc=4189,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 4189, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4189)
        0.040207777 = weight(_text_:und in 4189) [ClassicSimilarity], result of:
          0.040207777 = score(doc=4189,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 4189, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4189)
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 4189) [ClassicSimilarity], result of:
              0.035487194 = score(doc=4189,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 4189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4189)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
    Date
    22. 6.2002 19:35:09
  2. Gillitzer, B.: Yewno (2017) 0.03
    0.028643731 = product of:
      0.057287462 = sum of:
        0.011288359 = weight(_text_:in in 3447) [ClassicSimilarity], result of:
          0.011288359 = score(doc=3447,freq=20.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19010136 = fieldWeight in 3447, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.03417004 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.03417004 = score(doc=3447,freq=26.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.011829065 = product of:
          0.02365813 = sum of:
            0.02365813 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.02365813 = score(doc=3447,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. Eversberg, B.: Zur Zukunft der Katalogisierung : ... jenseits RAK und AACR (2004) 0.02
    0.020292569 = product of:
      0.060877703 = sum of:
        0.013968632 = weight(_text_:in in 3632) [ClassicSimilarity], result of:
          0.013968632 = score(doc=3632,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.23523843 = fieldWeight in 3632, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3632)
        0.04690907 = weight(_text_:und in 3632) [ClassicSimilarity], result of:
          0.04690907 = score(doc=3632,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4848303 = fieldWeight in 3632, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3632)
      0.33333334 = coord(2/6)
    
    Abstract
    "Katalogisierung" klingt in manchen Ohren altmodisch. Man redet heute von "Metadaten"! Gemeint ist aber nichts völlig anderes. Es gibt nur viele neue Formen, Praktiken und Nutzungen, während sich früher Katalogdaten fast nur in Katalogen und Bibliographien befanden. "Metadaten" ist nur ein neuer Oberbegriff, aber in einer Katalogdatenbank haben wir längst mehr und andersartige Datenelemente und Funktionen als in Zettelkatalogen. Es ist notwendig, weiter auszugreifen als es die klassischen Regelwerke, RAK und AACR, getan haben, und deren hergebrachte Konzepte zu überdenken.
    Footnote
    Präsentation zum Vortrag "Zur Zukunft der Katalogisierung" während des Österreichischen Bibliothekartages in Linz 22.09.2004, Themenkreis: Google und die Zukunft der bibliothekarischen Erschließung. - Zuletzt aktualisiert: 15.07.2008.
  4. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.02
    0.018829215 = product of:
      0.056487642 = sum of:
        0.032829512 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
          0.032829512 = score(doc=4996,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 4996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4996)
        0.02365813 = product of:
          0.04731626 = sum of:
            0.04731626 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.04731626 = score(doc=4996,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme.
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
  5. Bredemeier, W.: "Strategische Deökonomisierung und Demokratisierung der Informationszugänge" : Eine Alternative zu Google und den Sozialen Medien? (2022) 0.02
    0.01861941 = product of:
      0.055858232 = sum of:
        0.009977593 = weight(_text_:in in 598) [ClassicSimilarity], result of:
          0.009977593 = score(doc=598,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 598, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
        0.045880638 = weight(_text_:und in 598) [ClassicSimilarity], result of:
          0.045880638 = score(doc=598,freq=30.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.47420087 = fieldWeight in 598, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.33333334 = coord(2/6)
    
    Abstract
    Gibt es eine Alternative zu Google? Sollte es sie geben? Die vorherrschende Kritik an den HighTech-Konzernen setzt an ihrer Marktmacht und deren Missbrauch an. Diesen ist politisch mit "Regulierung", "Sanktionierung" und "Sicherstellung von mehr Wettbewerb" zu begegnen. Evgeny Morozov, der aus Weißrussland stammende Technologie- und Internet-Kritiker, wurde mit den Büchern "The Net Delusion" (2011) und "To Save Everything Click Here" (2013), speziell in Deutschland als FAZ-Kolumnist bekannt. Mit seiner Kritik an den Tech-Konzernen setzt er grundsätzlicher als die in der öffentlichen Debatte dominierenden wirtschaftlichen Zusammenhänge an: Er fragt nach der Qualität, Relevanz und Originalität der suchbar und verfügbar gemachten Inhalte. Folgen wir ihm, so würde mehr Wettbewerb unter Suchmaschinen wenig nützen, wenn sich die neuen Player in den Kriterien, auf die ihre Algorithmen festgelegt sind, nicht von Google unterscheiden (und die aus technischer Sicht womöglich schlechter als Google sind).
    Morozov hat zudem eine Alternative zu Google geschaffen. Zumindest wird sein Dienst so in Teilen der Öffentlichkeit und im persönlichen Umfeld von Morozov wahrgenommen. Das Angebot trägt den Namen "The Syllabus" (auf Deutsch: "Das Register" oder "Das Verzeichnis"). www.the-syllabus.com. Das ist nach Sara Getz als Frontstellung gegen die "Attention Economy" zu verstehen, in der die Anbieter um die knappe Aufmerksamkeit ihrer Nutzer ringen. Wie erfolgreich sie dabei sind, wird nach Auflagenhöhen, Einschaltquoten, Klicks und "Likes" gemessen. Diese stellen einen Anreiz dar, kürzer, schriller, boulevardesker und oberflächlicher zu schreiben. Im Folgenden werden Beschreibungen und Bewertungen von "The Syllabus" seitens Sara Getz und Niklas Meek wiedergegeben. Hinzu kommen die Selbstbeschreibungen von Syllabus auf der eigenen Webseite und meine persönliche Bilanz, nachdem ich "The Syllabus" ein knappes Jahr genutzt habe.
  6. Hillenbrand, T.: Googles Zehn Gebote (2005) 0.02
    0.018116869 = product of:
      0.054350603 = sum of:
        0.01126187 = weight(_text_:in in 4314) [ClassicSimilarity], result of:
          0.01126187 = score(doc=4314,freq=26.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18965527 = fieldWeight in 4314, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4314)
        0.043088734 = weight(_text_:und in 4314) [ClassicSimilarity], result of:
          0.043088734 = score(doc=4314,freq=54.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.44534507 = fieldWeight in 4314, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4314)
      0.33333334 = coord(2/6)
    
    Abstract
    Angeblich ist Googeln ganz einfach: Begriff eintippen, Return-Taste drücken, Ergebnis einsammeln. Häufig landet man stattdessen in der Suchmaschinen-Hölle. Doch die Erlösung ist nah - wer die Gebote der Internet-Götter befolgt, dem steht das Paradies offen.
    Content
    "Und Mo der User irrte einsam durch die kalte Betonwüste und er wusste nicht wo Norden noch Süden war. "Weh mir", rief er, "ausgezogen war ich, den Tempel des Heiligen Saturn zu finden, auf dass mir seine Hohepriester einige jener kleinen Silberscheiben verkauften, zu wohlfeilen Preisen. Doch nun bin ich ganz verloren und weiß nicht, wohin ich meine Schritte lenken soll." Es begab sich aber, dass Mo an einer Taverne vorbeikam. "Preiset den Herrn", rief er aus, "diese bescheidene Tränke vermag mir nicht nur ein wohlschmeckend Heißgebräu mit Vanillearoma zu bereiten. Vermittels ihrer vermag ich auch die Götter des Internet um Rat anzuflehen." Und so öffnete er sein Ränzel, entnahm sein gesegnetes iBuch von Antiochia und klinkte sich in den Hotspot des Kaffeehökers ein. Alsdann betete Mo zu Google. Und er rief: "O allwissender Google. Ich suche den Tempel des edlen Saturn oder des erhabenen Conrad, auf dass ich einige Silberlinge zur Archivierung meiner Schriften erwerben könnte." Und so tippte Mo die Wörter "DVD Berlin" in sein magisches Büchlein. Und als er die Return-Taste betätigte, da vernahm er in der Ferne ein Donnergrollen und der Himmel verfinsterte sich. Und ein Blitz zuckte vom Himmel und fuhr in Mos treues iBuch und der Akku fing Feuer. Und es war viel Wehklagen und Geschrei in der Taverne. Diese Zeichen des Herrn trieben die Furcht in Mos Herz und er fiel vor dem brennenden Zauberbüchlein auf die Knie. Und plötzlich wurde er in den lodernden Flammen des mächtigen Google Antlitz' gewahr. Und jener sprach: "Mo, du Idiot! Du willst der Prophet der Suchmaschinen sein, aber du weißt ja nicht mal, wie man eine vernünftige Abfrage formuliert!" Mo warf sich zu Boden: "Allmächtiger, ich - ...". "Klappe, Mo!", zischte das iBuch. "Täglich wollen die Adepten Antworten von mir, doch kaum einer ist in der Lage, seine Fragen richtig zu stellen. Das nervt höllisch. Empfange nunmehr meine zehn Gebote der Internet-Suche. Und künde den anderen Usern davon immerdar." Und er sprach: Und Mo hob die Hände zum Himmel und rief: "Hosianna! Lob und Ehre sei Dir, O mächtiger und preisenswerter Gott der Suche. Umgehend will ich Deine Gebote meißeln in feinsten Marmor, auf dass ein jeder sie schaue!" Und ein weiteres grollendes Seufzen erschütterte die Taverne. "Marmor? Du hast es wahrlich nicht mit Löffeln gefressen, Mo. Poste es irgendwo im Netz, das geht viel schneller." Und so geschah es."
    Footnote
    Die 10 Google-Gebote: Du sollst ... 1. ... nie weniger als drei Begriffe eingeben 2. ... Artikel und Hilfsverben ächten 3. ... Nomen bevorzugen 4. ... "Phrasen in Anführungszeichen" setzen 5. ... Wörter gebrauchen, die du in deinen Ergebnissen zu finden erwartest 6. ... die Syntax des Heiligen Boole in Ehren halten 7. ... alles andere klein schreiben 8. ... auch die ehrwürdigen Verzeichnisse befragen 9. ... andere Suchmaschinen haben neben mir 10. ... auch der Auskunft und dem Telefon huldigen
  7. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.02
    0.017532641 = product of:
      0.05259792 = sum of:
        0.011288359 = weight(_text_:in in 5938) [ClassicSimilarity], result of:
          0.011288359 = score(doc=5938,freq=20.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.19010136 = fieldWeight in 5938, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.04130956 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.04130956 = score(doc=5938,freq=38.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.42695636 = fieldWeight in 5938, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.33333334 = coord(2/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
    Content
    [Magisterarbeit] - Rez. in: Online Mitteilungen 2001, Nr.69, S.41-43 (K. Patzwaldt) (Vgl. auch: http://www.ideenreich.com/suchmaschinen/kritik.shtml)
  8. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.02
    0.01721226 = product of:
      0.05163678 = sum of:
        0.008924231 = weight(_text_:in in 3068) [ClassicSimilarity], result of:
          0.008924231 = score(doc=3068,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.15028831 = fieldWeight in 3068, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.04271255 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.04271255 = score(doc=3068,freq=26.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
      0.33333334 = coord(2/6)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  9. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.02
    0.01606845 = product of:
      0.048205346 = sum of:
        0.009274333 = weight(_text_:in in 2133) [ClassicSimilarity], result of:
          0.009274333 = score(doc=2133,freq=24.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 2133, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
        0.038931012 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.038931012 = score(doc=2133,freq=60.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.33333334 = coord(2/6)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  10. Franke-Maier, M.; Rüter, C.: Discover Sacherschließung! : Was machen suchmaschinenbasierte Systeme mit unseren inhaltlichen Metadaten? (2015) 0.02
    0.015623803 = product of:
      0.04687141 = sum of:
        0.006246961 = weight(_text_:in in 1706) [ClassicSimilarity], result of:
          0.006246961 = score(doc=1706,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.10520181 = fieldWeight in 1706, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.040624447 = weight(_text_:und in 1706) [ClassicSimilarity], result of:
          0.040624447 = score(doc=1706,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41987535 = fieldWeight in 1706, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
      0.33333334 = coord(2/6)
    
    Abstract
    Discovery Systeme erlauben einen neuen und anderen Zugriff auf verfügbare Ressourcen einer Bibliothek als die traditionellen Online-Kataloge. Daraus ergeben sich Probleme, aber auch Chancen für die Nutzung und Sichtbarkeit der bibliothekarischen Sacherschließung. Der Vortrag gibt einen Einblick in die Funktionalitäten und Funktionsweisen von Discovery Systemen am Beispiel eines großen Players, Primo von ExLibris, sowie die Auswirkungen auf bibliothekarische inhaltliche Metadaten. Es werden Chancen und Grenzen der Technik beleuchtet. Der Vortrag schließt mit der Reflektion der Implikationen für die Arbeit im Fachreferat.
    Content
    Präsentation zur Fortbildungsveranstaltung für Fachreferentinnen und Fachreferenten der Politikwissenschaft und Soziologie, 23.01.2015.
  11. Niemann, J.: "Ich cuil das mal" : Neue Suchmaschine fordert Google heraus (2008) 0.02
    0.015611744 = product of:
      0.04683523 = sum of:
        0.008834538 = weight(_text_:in in 2049) [ClassicSimilarity], result of:
          0.008834538 = score(doc=2049,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 2049, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2049)
        0.03800069 = weight(_text_:und in 2049) [ClassicSimilarity], result of:
          0.03800069 = score(doc=2049,freq=42.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.39275742 = fieldWeight in 2049, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2049)
      0.33333334 = coord(2/6)
    
    Abstract
    Die neue Suchmaschine "Cuil" ist mit ehrgeizigen Zielen und großen Worten online gegangen. Dass sie keine Nutzerdaten sammelt, macht sie attraktiv - ihre deutschen Suchergebnisse weniger.
    Content
    "Daran, dass der Suchmaschinen-Gigant Google immer und in allem der Größte und Beste sein muss, haben sich Internet-Nutzer aus aller Welt längst gewöhnt. Und als das Unternehmen am Wochenende in seinem offiziellen Blog damit angab, nun den Meilenstein von eine Billion gefundener eigenständiger URLs erreicht zu haben, war das eigentlich kaum noch ein Grund aufzuhorchen. Zumal bisher der Google-Index auf 30 bis 50 Milliarden geschätzt wurde und unklar ist, ob die angeblichen Billionen Links auch indexiert sind und nicht zu großen Teilen auch zu den selben Seiten führen. Wenn nun aber plötzlich eine andere, völlig neue Suchmaschine namens "Cuil" - gesprochen "Cool"- am Start ist und behauptet, 121 Milliarden Seiten zu durchsuchen und dabei überhaupt keine Nutzerdaten speichert, ist das hingegen schon ein Anlass zum Aufhorchen. Schließlich ist man angesichts der "Daten-Kraken"-Meldungen über Google und seine Speichermethoden dankbar für jede Alternative. Gegründet wurde Cuil im Jahre 2006 von dem Ehepaar Tom Costello, ein früherer IBM-Manager und Stanford-Professor und Anna Patterson, ehemalige Google-Mitarbeiterin, in Menlo Park in Kalifornien mit einem Startkapital von 33 Millionen Dollar und startete am Wochenende offiziell den Suchbetrieb. Der ist allerdings noch stark verbesserungsfähig. Während Cuil zu dem Begriff "Schwangerschaft" angeblich 6.768.056 Treffer aufweisen kann, die allerdings in ihrer Priorisierung von Medikamenten, Blogs und Büchern eher unbrauchbar sind, stehen dem englischsprachigen User unter dem Begriff Pregnancy immerhin 241.127.157 auf den ersten Blick sehr präzise Treffer zur Verfügung. Da erscheint die Aussage Costellos, man wolle "Suchenden content-basierte Ergebnisse präsentieren und nicht nur populäre" weniger absurd. Google hat beim selben deutschen Suchbegriff über acht Millionen Treffer, zu Pregnancy über 111 Millionen. Im englischen steht Cuil Google also nicht nach, während es im deutschsprachigen Bereich allerdings auch bei Namen, Orten und Wikipedia-Einträgen noch recht bescheiden aussieht.
    Viel interessanter als die imposante Zahl von 121 Milliarden, die für Sucher im Netz im Zweifelsfall viel Irrelevantes bedeutet, ist die von Google abweichende Suchergebnis-Anordnung in Spalten und zumindest der Wille, die Treffer thematisch zu ordnen und mit Bildern und beschreibendem Kontext zu versehen. Auch die Tatsache, dass laut Datenschutzrichtlinien die IP-Adressen nicht gespeichert werden und die in Cookies dokumentierten Daten über das Surfverhalten der Nutzer auch nicht, könnte potenzielle Nutzer eher locken als schiere Link-Masse. Denn Cuil ist bei weitem nicht das erste Konkurrenzprodukt von Google, erst kürzlich startete Wikipedia-Gründer Jimmy Wales das bisher ziemlich erfolglose "Wikia". Während Google in den USA laut New York Times 61,5 der Suchanfragen verbucht, hat Yahoo dort immerhin 20,9 Prozent und Microsofts Live Search 9,2 Prozent - also wäre es für Cuil schon mal ein Anfang, Microsoft Konkurrenz zu machen. Derzeit ist die neue Suchmaschine dem großen Anfrage-Ansturm allerdings nicht gewachsen und deshalb häufig nicht erreichbar."
  12. Birmingham, J.: Internet search engines (1996) 0.02
    0.0153987575 = product of:
      0.04619627 = sum of:
        0.010709076 = weight(_text_:in in 5664) [ClassicSimilarity], result of:
          0.010709076 = score(doc=5664,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 5664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=5664)
        0.035487194 = product of:
          0.07097439 = sum of:
            0.07097439 = weight(_text_:22 in 5664) [ClassicSimilarity], result of:
              0.07097439 = score(doc=5664,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.46428138 = fieldWeight in 5664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5664)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Basically a good listing in table format of features from the major search engines
    Date
    10.11.1996 16:36:22
  13. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.01
    0.014349012 = product of:
      0.043047033 = sum of:
        0.009877314 = weight(_text_:in in 4442) [ClassicSimilarity], result of:
          0.009877314 = score(doc=4442,freq=20.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16633868 = fieldWeight in 4442, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
        0.03316972 = weight(_text_:und in 4442) [ClassicSimilarity], result of:
          0.03316972 = score(doc=4442,freq=32.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34282678 = fieldWeight in 4442, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4442)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    Wer bei horizobu, das in einer englischsprachigen und einer deutschsprachigen Version (für die Schweiz) angeboten wird, nach einem bestimmten Begriff sucht, dem präsentiert der Dienst lediglich sechs möglichst relevante Ergebnisse in voneinander separierten Boxen. Einzelne dieser Boxen lassen sich löschen, wodurch ein weiteres Suchergebnis ans Tageslicht befördert wird. Mit einem Klick auf "More" wechselt man alle sechs Resultate aus. Gefällige Resultate lassen sich per Drag-And-Drop in der rechten Spalte ablegen und für später aufbewahren. Um seinem Entdeckeranspruch gerecht zu werden, listet horizobu oberhalb der Suchergebnisse zehn mit dem jeweiligen Suchwort verwandte Begriffe, die beliebig kombinierbar zur Verfeinerung und Erweiterung der bisherigen Suche verwendet werden können. Inspiriert durch die Vorschläge haben User auch die Möglichkeit, weitere Begriffe zur Eingrenzung hinzufügen. "Die Intelligenz aus Social Software führt teilweise zu überraschenden Fundstücken, die bislang mit herkömmlichen Suchmaschinen kaum erschlossen wurden", so Werner Hartmann, Titularprofessor der ETH Zürich und einer der zwei Gründer von horizobu. Nachdem Nutzer mit den Resultaten ihrer Recherche zufrieden sind und diese womöglich mit der Bookmarking-Funktion gespeichert haben, kann die so entstandene Linksammlung direkt über einen eindeutigen Link weiterversendet werden (das sieht z.B. so aus). Diese Funktion ist zwar nicht revolutionär, aber simpel, intuitiv und erfordert wenige Klicks.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  14. EU prüft Werbeabkommen (2008) 0.01
    0.0136871245 = product of:
      0.04106137 = sum of:
        0.009274333 = weight(_text_:in in 111) [ClassicSimilarity], result of:
          0.009274333 = score(doc=111,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1561842 = fieldWeight in 111, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=111)
        0.031787038 = weight(_text_:und in 111) [ClassicSimilarity], result of:
          0.031787038 = score(doc=111,freq=10.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.328536 = fieldWeight in 111, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=111)
      0.33333334 = coord(2/6)
    
    Content
    "Die EU-Kommission überprüft das geplante Werbeabkommen zwischen den amerikanischen Internet-Konzernen Google und Yahoo. Ein Sprecher der Brüsseler Behörde sagte, dass man bereits im Juli auf eigene Initiative eine Untersuchung begonnen habe. Im Mittelpunkt stehe die Frage, ob das Abkommen Europa betreffe und europäisches Recht breche. Die Firmen hätten freiwillig Informationen zur Verfügung gestellt. Yahoo hatte die Kooperation mit Google im Juni angekündigt, als Microsoft - vergeblich - versuchte, den Internet-Pionier zu kaufen. Google soll ab Ende September auf einigen Yahoo-Websites in den USA und Kanada seine Werbung platzieren. Die Unternehmen wollen den Umsatz teilen. Yahoo könnte daran nach Branchenberichten 800 Millionen Dollar pro Jahr verdienen. Die Kooperation wird von mehreren Seiten skeptisch gesehen. Das amerikanische Justizministerium hat nach Medienberichten einen der bekanntesten US-Kartellexperten mit der Prüfung der Angelegenheit beauftragt. Vor zwei Wochen hatte die amerikanische Association of National Advertisers in einem Brief an das US-Justizministerium ihre Bedenken geäußert. Der Organisation gehören Großunternehmen wie die Einzelhandelskette Wal-Mart und der Autobauer General Motors an. Am Montag wendete sich auch der Welt-Zeitungsverband gegen das Abkommen."
    Series
    In- und Ausland: Multimedia: Aktuell
  15. Patalong, F.: Life after Google : I. Besser suchen, wirklich finden (2002) 0.01
    0.013674326 = product of:
      0.04102298 = sum of:
        0.0080441935 = weight(_text_:in in 1165) [ClassicSimilarity], result of:
          0.0080441935 = score(doc=1165,freq=26.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.13546807 = fieldWeight in 1165, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
        0.032978784 = weight(_text_:und in 1165) [ClassicSimilarity], result of:
          0.032978784 = score(doc=1165,freq=62.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34085333 = fieldWeight in 1165, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1165)
      0.33333334 = coord(2/6)
    
    Content
    "Google ist einfach zu bedienen, effektiv, bringt qualitativ hochwertige Suchergebnisse - und ist doch nicht der Weisheit letzter Schluss. Manchmal braucht man Alternativen, und mitunter sind die sogar weit besser als Google. Patentrezepte sind eine feine Sache, sie haben aber auch ihre Nachteile. Je stärker man sich auf sie stützt, desto eher läuft man Gefahr, alternative Ansätze zu verlernen oder zu vergessen. Dass es derzeit vielen Surfern so geht, könnten die Betreiber der meisten Suchmaschinen und Kataloge anhand ihrer Logstatistiken nachweisen: Google monopolisiert den Markt und nimmt den anderen die Butter vom Brot. Das ist nicht Googles Schuld. Der erst vier Jahre alte Suchdienst hat sich weltweit durchgesetzt, weil er nach wie vor die beste Suchtechnik bietet. Zurzeit gibt es wohl kaum eine einzelne Searchengine, die in ihrer Gesamtperformance, in Datenbankgröße und Güte der Ergebnisse mit Google wirklich mithalten könnte. So etwas spricht sich herum und hat dazu geführt, dass Google inzwischen den größten Batzen aller Suchanfragen im WWW abwickelt. Kleine wie große Konkurrenten drohen daran kaputtzugehen. Das wiederum wäre schade, denn es muss Alternativen geben: Google kann viel, aber er kann nicht alles.
    Google sucht "flach", weil "hochgestochenes" nicht populär ist Das Pageranking-System von Google, mit dem der Suchdienst Ergebnisse in eine "relevante" Reihenfolge bringt, begünstigt populäre Angebote. Fachleute suchen vielleicht gerade die bewusst nicht. Sie sind in aller Regel mit Suchen über Kataloge oder spezialisierte Suchdienste besser bedient. Da keine Suchmaschine es schafft, das WWW, geschweige denn das Internet vollständig abzudecken, gelingt es vielen Suchmaschinen immer wieder, in bestimmten Suchfeldern, Themenbereichen oder auch über regionale Ansätze und Schwerpunkte zu qualitativ hochwertigen Ergebnissen zu kommen, die auch Google ausstechen. Ganz besonders gilt dies für alle Dienste, die gezielt im so genannten "Deep Web" suchen: Gemeint sind damit vor allem Datenbankbestände. An die kommt Google in den seltensten Fällen heran, aber gerade hier sind zumindest im Kontext professioneller Recherchen die Perlen im Web verborgen - egal, ob man Ingenieur, Bibliothekar, Arzt, Möbelrestaurator oder Journalist ist. Patentrezepte gibt es hier nicht, weil alles Suchen im Web abhängig ist von den Interessen des Suchenden. Stets up to date über das Angebot auch an spezialisierten Suchdiensten ist aber die Website Searchenginewatch: Hier sind unter "Specialty Search Engines" entsprechende Links zu finden. Zumindest eines lässt sich pauschal und problemlos für alle Suchenden im Web konstatieren: Es kann nicht schaden, eine Alternative zu Google zu pflegen. Metasucher: Mit Masse zur Klasse Neben kraftvollen Suchmaschinen wie Altavista, Hotbot, Teoma, Wisenut, Inktomi oder AlltheWeb , die alle ihre Eigenheiten, Stärken und Schwächen besitzen (ausprobieren!), glänzen vor allem auch die Metasuchdienste. Das sind Websites, die über ein Suchformular parallel eine ganze Reihe von Quellen abfragen können und die Ergebnisse zusammenfassen. Metasearcher kommen und gehen und leben dabei - aus Perspektive der Surchengine-Anbieter - quasi parasitär auf Kosten der Suchmaschinen. Aus Nutzerperspektive haben sie allerdings einiges zu bieten, und die besten unter ihnen bringen tatsächlich eigene Leistungen ein, die die Qualität der bei anderen Suchdiensten gesammelten Ergebnisse steigert. Denn Metamaschinen "verbreitern" die Suche nicht nur, sie engen sie auch ein: Ein Beispiel wie Ithaki macht das sehr schön deutlich. Der Suchdienst fragt nur Kataloge für Kinderseiten ab - und wer weiß, wie dürftig die in aller Regel für sich genommen sind, wird für den breiteren, aber fest definierten Ansatz dankbar sein. Typisch: So was gibt es für den deutschsprachigen Raum natürlich wieder nicht.
    Viel abfragen, präzise einengen Ein guter, allgemeiner Metadienst ist auch Ixquick , der in seiner deutschen Version zwölf Searchengines parallel abfragt. Mit im Päckchen: Eine Reihe spezifisch deutscher Engines, ernsthafte Google-Konkurrenten wie AlltheWeb oder AskJeeves/Teoma bis hin zu Katalogen. Google dagegen fehlt, was die ganze Sache nicht nur zum echten Alternativprogramm macht, sondern auch zur sinnvollen Ergänzung: Tests deuten darauf hin, dass Google im Diffusen weit besser fischt, Ixquick bei sehr konkreten Aufgaben aber deutlich bessere Ergebnisse zeigt. Im Klartext: Bei Google ist die Chance größer, den Ex-Klassenkameraden wiederzufinden, bei Ixquick findet man dagegen seinen Fachaufsatz an der Uni Antwerpen. Das hat was, und es ist kein Zufall: Der niederländische Dienst Ixquick leistet es sich, die bei diversen Diensten gefundenen Resultate neu zu gewichten und zu ordnen. Ganz nebenbei killt er dabei auch noch sämtliche Doppler. Brauchbar ist dabei wiederum wirklich nur die Metasuche: Die anderen Suchoptionen (Bilder, News, MP3) bieten vergleichsweise wenig. Das gewöhnt den Surfer dann wieder daran, dass es oft besser ist, mehrere Quellen gegeneinander zu konsultieren. Weder die Bildsuche von Google, noch die von Altavista ist wirklich gut - in Kombination aber decken sie eine Menge ab.
    Auch das bringt was: Gezielte Plattformwechsel Das versucht auch ein Dienst wie Pandia : Der Metasearcher kombiniert in seinen Anfragen gute Searchengines mit der Vollindexierung qualitativ hochwertiger Inhalte-Angebote. So kombiniert Pandia gezielt die Encyclopedia Britannica, Lexika und Searchengines mit den Datenbeständen von Amazon. Wozu das gut sein soll und kann, zeigt das praktische Beispiel einer sehr sachlich orientierten Suche: "Retina Implant". Dabei geht es um Techniken, über oparative Eingriffe und Implantate an Netzhaut-Degeneration erblindeter Menschen das Augenlicht (zumindest teilweise) wieder zu geben. Pandia beantwortet die Suche zunächst mit dem Verweis auf etliche universitäre und privatwirtschaftliche Forschungsinstitute. 13 von 15 Suchergebnissen sind 100 Prozent relevant: Hier geht es ab in die Forschung. Die letzten beiden verweisen zum einen auf eine Firma, die solche Implantate herstellt, die andere auf einen Fachkongress unter anderem zu diesem Thema: Das ist schon beeindruckend treffsicher. Und dann geht's erst los: Mit einem Klick überträgt Pandia die Suchabfrage auf das Suchmuster "Nachrichtensuche", als Resultat werden Presse- und Medienberichte geliefert. Deren Relevanz ist leicht niedriger: Um Implantate geht es immer, um Augen nicht unbedingt, aber in den meisten Fällen. Nicht schlecht. Noch ein Klick, und die Suche im "Pandia Plus Directory" reduziert die Trefferanzahl auf zwei: Ein Treffer führt zur Beschreibung des universitären "Retinal Implant Project", der andere zu Intelligent Implants, einer von Bonner Forschern gegründeten Firma, die sich auf solche Implantate spezialisiert hat - und nebenbei weltweit zu den führenden zählt. Noch ein Klick, und Pandia versucht, Bücher zum Thema zu finden: Die gibt es bisher nicht, aber mit Pandias Hilfe ließe sich sicher eins recherchieren und schreiben. Trotzdem: Keiner der angesprochenen Dienste taugt zum Universalwerkzeug. Was der eine kann, das schafft der andere nicht. Da hilft nur ausprobieren. Der Suchdienst muss zum Sucher passen. Fazit und Ausblick So gut Google auch ist, es geht noch besser. Die intelligente Kombination der besten Fertigkeiten guter Suchwerkzeuge schlägt selbst den Platzhirsch unter den Suchdiensten. Doch darum geht es ja gar nicht. Es geht darum, die Suche im Web effektiv zu gestalten, und das will nach wie vor gelernt sein. Noch einfacher und effektiver geht das mit zahlreichen, oft kostenlosen Werkzeugen, die entweder als eigenständige Software (Bots) für Suche und Archivierung sorgen, oder aber als Add-On in den heimischen Browser integriert werden können. Doch dazu mehr im zweiten Teil dieses kleinen Web-Wanderführers"
    Footnote
    Zum Thema: Im Internet: · Searchenginewatch http://www.searchenginewatch.com · Searchenginewatch: Spezialsuchdienste http://www.searchenginewatch.com/links/specialty.html · Ixquick Metasuche http://www.ixquick.com/ · Pandia Metasearchdienst http://www.pandia.com · Ithaki: Metasuchdienst für Kinderthemen http://www.ithaki.net/kids/ · Metaspinner: Deutscher Metasuchdienst mit vielen speziellen Suchmöglichkeiten http://www.metaspinner.de · AlltheWeb: Googles Herausforderer http://www.alltheweb.com/ · AltaVista: Der ehemalige Marktführer hat mächtig aufgerüstet http://www.altavista.com/ · Inktomi: Suchdienstleister im Hintergrund http://www.inktomi.com/ · Wisenut: Viel versprechender Newcomer, der dringend ein Update gebrauchen könnte http://www.wisenut.com · Teoma sucht anders: Im Doppel mit AskJeeves ein Klasse-Angebot, bisher ohne die nötige Masse http://www.teoma.com · Hotbot: Einst intelligenteste Searchengine, bis heute guter Service http://www.hotbot.lycos.com · ...und natürlich der Dienst, an dem sich alle messen müssen: Google http://www.google.com/intl/de/
  16. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.01
    0.01335524 = product of:
      0.04006572 = sum of:
        0.010096614 = weight(_text_:in in 136) [ClassicSimilarity], result of:
          0.010096614 = score(doc=136,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 136, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
        0.029969105 = weight(_text_:und in 136) [ClassicSimilarity], result of:
          0.029969105 = score(doc=136,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3097467 = fieldWeight in 136, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=136)
      0.33333334 = coord(2/6)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
  17. Söhler, M.: Schluss mit Schema F (2011) 0.01
    0.013322966 = product of:
      0.039968897 = sum of:
        0.0071393843 = weight(_text_:in in 4439) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=4439,freq=8.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 4439, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
        0.032829512 = weight(_text_:und in 4439) [ClassicSimilarity], result of:
          0.032829512 = score(doc=4439,freq=24.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 4439, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4439)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit Schema.org und dem semantischen Web sollen Suchmaschinen verstehen lernen
    Content
    "Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere vom Fernsehen. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit Bedeutungen unterscheiden und verarbeiten lernen, können dies Suchmaschinen von selbst nicht. Stets listen sie dumpf hintereinander weg alles auf, was sie zu einem Thema finden. Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden. Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler - die Analyseprogramme der Suchmaschinen - gekennzeichnet und aufbereitet werden.
    Indem Schlagworte, sogenannte Tags, in den für Normal-User nicht sichtbaren Teil des Codes von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog ZBW Mediatalk wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht, so Stefan Keuchel, Pressesprecher von Google Deutschland. Bis das so weit ist, hilft der Verweis von Daniel Bahns auf die bereits existierende semantische Suchmaschine Sig.ma. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf.
  18. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.013322966 = product of:
      0.039968897 = sum of:
        0.0071393843 = weight(_text_:in in 3611) [ClassicSimilarity], result of:
          0.0071393843 = score(doc=3611,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.120230645 = fieldWeight in 3611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
        0.032829512 = weight(_text_:und in 3611) [ClassicSimilarity], result of:
          0.032829512 = score(doc=3611,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 3611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3611)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
  19. Krempl, S.: Google muss zerschlagen werden (2007) 0.01
    0.01318196 = product of:
      0.03954588 = sum of:
        0.010820055 = weight(_text_:in in 753) [ClassicSimilarity], result of:
          0.010820055 = score(doc=753,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1822149 = fieldWeight in 753, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=753)
        0.028725822 = weight(_text_:und in 753) [ClassicSimilarity], result of:
          0.028725822 = score(doc=753,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.2968967 = fieldWeight in 753, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=753)
      0.33333334 = coord(2/6)
    
    Abstract
    Eine Studie der TU Graz warnt mit drastischen Worten vor der "Bedrohung der Menschheit" durch Google. Der Suchmaschinenprimus schicke sich nicht nur an, den Schutz der Privatsphäre auf dem Müllhaufen der Geschichte zu entsorgen, heißt es in dem 187-Seiten umfassenden Bericht "über die Gefahren und Chancen großer Suchmaschinen unter besonderer Berücksichtigung von Google" (PDF-Datei). Das "monopolistische Verhalten" des Marktführers bedrohe vielmehr, "wie wir die Welt sehen und wie wir als Individuen wahrgenommen werden". Damit gerate sogar die gesamte Weltwirtschaft in Gefahr. Google habe in unerhörter Art und Weise Macht angehäuft, sodass ein Gegenangriff überfällig sei.
  20. Griesbaum, J.: Online Marketing : Ein Lehr- und Forschungsgebiet der Informationswissenschaft? (2019) 0.01
    0.013138894 = product of:
      0.039416682 = sum of:
        0.006246961 = weight(_text_:in in 5418) [ClassicSimilarity], result of:
          0.006246961 = score(doc=5418,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.10520181 = fieldWeight in 5418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
        0.03316972 = weight(_text_:und in 5418) [ClassicSimilarity], result of:
          0.03316972 = score(doc=5418,freq=8.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.34282678 = fieldWeight in 5418, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Darstellung der zentralen Kanäle des Online-Marketing wird fortgesetzt. Bei der Suchwortvermarktung werden Anzeigen auf Suchergebnisseiten geschaltet. Wichtige Größen sind hier die Inhalte, die der Werbetreibende über die gebuchten Suchanfragen definiert, die Gebotshöhe für Klicks auf die Werbeanzeige, die Klickrate und die Qualität der Zielseiten.
    Content
    Lesen Sie in der nächsten Folge: Online Marketing und Lehre - Online Marketing und Forschung.

Years

Languages

  • d 49
  • e 40

Types

  • a 37
  • x 2
  • r 1
  • More… Less…