Search (33 results, page 1 of 2)

  • × year_i:[2010 TO 2020}
  • × theme_ss:"Suchmaschinen"
  1. Handbuch Internet-Suchmaschinen 2 : Neue Entwicklungen in der Web-Suche (2011) 0.10
    0.09527207 = product of:
      0.19054414 = sum of:
        0.16256261 = weight(_text_:soziale in 522) [ClassicSimilarity], result of:
          0.16256261 = score(doc=522,freq=6.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.5845898 = fieldWeight in 522, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.0390625 = fieldNorm(doc=522)
        0.02798154 = product of:
          0.05596308 = sum of:
            0.05596308 = weight(_text_:software in 522) [ClassicSimilarity], result of:
              0.05596308 = score(doc=522,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30993375 = fieldWeight in 522, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=522)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Der zweite Band des bekannten Handbuchs widmet sich den aktuellen Entwicklungen in der Web-Suche. Neue Such-Ansätze wie die Soziale und die Semantische Suche werden ebenso behandelt wir Spezialsuchen, die Evaluierung und nutzergerechte Gestaltung von Suchdiensten sowie das Monitoring von Webquellen. In 12 Kapiteln geben namhafte Wissenschaftler und Praktiker aus dem deutschsprachigen Raum den Überblick über den State of the Art, zeigen Trends auf und geben Handlungsempfehlungen für alle, die sich als Forscher, Entwickler und Nutzer sich mit dem Thema Suche beschäftigen. Dieser zweite Band erweitert das Themenspektrum des Handbuchs Internet-Suchmaschinen wesentlich und stellt damit eine wertvolle Ergänzung dar.
    RSWK
    Internet / Suchmaschine / Online-Recherche / Soziale Software / Evaluation / Web Site / Analyse
    Subject
    Internet / Suchmaschine / Online-Recherche / Soziale Software / Evaluation / Web Site / Analyse
  2. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.03
    0.028410375 = product of:
      0.05682075 = sum of:
        0.046927784 = weight(_text_:soziale in 6) [ClassicSimilarity], result of:
          0.046927784 = score(doc=6,freq=2.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.16875653 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.01953125 = fieldNorm(doc=6)
        0.0098929675 = product of:
          0.019785935 = sum of:
            0.019785935 = weight(_text_:software in 6) [ClassicSimilarity], result of:
              0.019785935 = score(doc=6,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.10957812 = fieldWeight in 6, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=6)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Ganze "230 Adressen im World Wide Web, 250 Server und 100 per E-Mail zugängliche Informationsquellen". So stand es 1995 in der "Updated Internet Services List". Die manuell zusammengetragene Adressliste, nach ihrem Urheber auch als "Yanoff-Liste" bekannt, war einer der ersten Versuche, die anschwellende Informationsflut des Internet zu kanalisieren. Aus einem dieser Verzeichnisse, das zunächst von Studenten zusammengetragen wurde, entstand kurze Zeit später mit Yahoo die Mutter aller Suchmaschinen. Die englische Wortkombination "Search Engine" ist allerdings irreführend. Denn dahinter steckt in Wahrheit eine Software, die automatisch einen Index der Internetinhalte erstellt. Denn der Fleiß einer Handvoll Studenten reichte schon bald nicht mehr aus, das sich explosionsartig ausbreitende Web auch nur ansatzweise zu erfassen.
    Und natürlich schlägt Microsoft in die gleiche Kerbe wie Google. Denn auch die Bing-Suche steht ganz im Zeichen der "Individualisierung" der Ergebnisse. "Social Search" nennt sich die (noch) optionale Möglichkeit, Facebook-Einträge von Freunden als Suchkriterien zu verwenden. Schließlich, so die Meinung des Konzerns, beeinflusse der "Freunde-Effekt" die Entscheidung von Menschen in der Regel mehr als andere Faktoren. Die Entwicklung zeigt eindrucksvoll, wie schnell sich die beiden letzten Großen im Suchmaschinen-Geschäft neue Entwicklungen im Netz aneignen. Im Web 2.0 bildeten Blogs und Soziale Netzwerke bislang gewissermaßen ein demokratisches Gegengewicht zum Meinungsmonopol. Doch auch hier ist der Internet-Goliath bereits am Start. Wer sich schon immer mal gefragt hat, warum der Such-Gigant praktisch monatlich mit neuen Angeboten wie etwa Google+ aufwartet, findet hier eine Antwort. Mit dem kostenlosen Smartphone-Betriebssystem Android sicherte man sich eine gewichtige Position auf dem expandieren Markt für mobile Plattformen. Trotz ihrer momentanen Allmacht erkennen die Konzernlenker also durchaus die Gefahr, irgendwann einmal selbst vom Zug der Zeit überrollt zu werden. Für die meisten Konkurrenten kommt diese Einsicht zu spät."
  3. dpa: Benutzer können künftig mit Google sprechen : Konzern stellt Neuerungen auf Entwicklerkonferenz vor (2013) 0.02
    0.023228066 = product of:
      0.092912264 = sum of:
        0.092912264 = weight(_text_:soziale in 765) [ClassicSimilarity], result of:
          0.092912264 = score(doc=765,freq=4.0), product of:
            0.2780798 = queryWeight, product of:
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.045514934 = queryNorm
            0.33412087 = fieldWeight in 765, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1096387 = idf(docFreq=266, maxDocs=44218)
              0.02734375 = fieldNorm(doc=765)
      0.25 = coord(1/4)
    
    Content
    "Eigentlich müssten die Besucher der GoogleEntwicklerkonferenz I/O in diesem Jahr enttäuscht sein: Alle Spekulationen im Vorfeld der Konferenz über ein neues Android-Betriebssystem sowie über einen Tablet-Computer mit Super-Display erwiesen sich am Mittwoch (Ortszeit) als Luftnummer. Und die über drei Stunden dauernde Eröffnungsveranstaltung wurde auch nicht wie im vergangenen Jahr durch die Aktion mutiger Fallschirmspringer aufgelockert. Sie hatten damals ihren Flug von einem Luftschiff auf das Dach des Konferenzcenters live mit einem Prototypen der Cyberbrille Google Glass als Videostream auf eine riesige Leinwand übertragen. Als Flop wird die Google I/O 2013 aber nicht in die Technik-Geschichte eingehen, ganz im Gegenteil. Rückblickend könnte die Entwicklerkonferenz als der Zeitpunkt eingeschätzt werden, an dem Google die Internet-Suche neu erfunden hat. Für die meisten Internet-Anwender ist die Google-Suche synonym mit dem Eintippen eines Begriffs in einen einfach gestalteten Suchschlitz. Das wird sich ändern. Künftig werden Suchabfragen immer öfter - auch auf dem Desktop-Computer - in gesprochener Sprache erfolgen. Der Befehl "Okay Google" öffnet das virtuelle Ohr. Danach kann man der Suchmaschine wie einem Menschen mündlich eine Frage stellen: "Wie ist das Wetter in Berlin?". Google versteht dann auch die Abschlussfrage "Und in München?" richtig, obwohl in dem Kurzsatz das Wort "Wetter" gar nicht mehr auftaucht. Google-Manager Amit Singhal sieht damit "das Ende der Suche - wie wir sie kennen" in naher Zukunft kommen. Das liegt zum einen an dem Wissensschatz, der sich inzwischen in den Google-Servern angehäuft hat und über Technologien wie den "Google Knowledge Graph" effizient abgerufen werden kann. Dazu kommt aber auch eine "soziale" Komponente, da der US-Konzern fast alles über die Vorlieben seinen Anwender weiß - zumindest wenn diese bereit sind, diese mit ihm zu teilen. Das führt dazu, dass es künftig nicht mehr eine einzige universelle Internet-Suche gibt, sondern unzählige verschiedene Suchergebnisse, die stets auf die Präferenzen der User angepasst sind.
    Diese "soziale" Ebene legt Google künftig über quasi alle seine Produkte. So zeigen die neu gestalteten Google Maps einem Kunstliebhaber einen Stadtplan mit allen Galerien und Museen, während einem Shopaholic dagegen bevorzugt Boutiquen und Kaufhäuser auf denselben Karten ausschnitt gezeichnet werden. Außerdem werden Informationen über Unfälle auf den Straßen direkt in Google Maps eingebunden . Zudem wurde ein neuer Streaming-Musikdienst vorgestellt, bei dem die Songs direkt aus dem Netz abgespielt werden. Das Abo-Angebot mit dem Namen Google Play Music All Access ist zunächst in den USA verfügbar. Für die Google-Anwender heißt dies zunächst, dass die Dienste des Internet-Giganten im Zweifelsfall noch praktischer werden als sie es heute ohnehin schon sind. Gleichzeitig müssen sich die User aber auch vor Augen halten, wie sehr sie sich vom Wohl und Wehe eines einzelnen Un- ternehmens abhängig machen und welche Datenschätze sie diesem Konzern anvertrauen. Diese Befürchtungen dürften auch der Grund dafür gewesen sein, dass Google-Chef Larry Page sich zum Ende der Keynote mit der grundsätzlichen Frage beschäftigte, welche Ängste neue Technologien wie die Cyberbrille Google Glass bei Menschen auslösen können. Page räumte ein, dass die rasanten Veränderungsprozesse Menschen in eine unkom- fortable Lage versetzten. "In der Technologie(entwicklung) sollten wir einige sichere Plätze haben, an denen wir neue Dinge ausprobieren und herausfinden können, wie der Effekt auf die Gesellschaft und auf die Menschen ist. Dazu sollten wir nicht gezwungen sein, diese Neuheiten auf der ganzen Welt ausrollen." "
  4. Lewandowski, D.; Sünkler, S.: What does Google recommend when you want to compare insurance offerings? (2019) 0.02
    0.017601274 = product of:
      0.070405096 = sum of:
        0.070405096 = sum of:
          0.03957187 = weight(_text_:software in 5288) [ClassicSimilarity], result of:
            0.03957187 = score(doc=5288,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.21915624 = fieldWeight in 5288, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5288)
          0.030833228 = weight(_text_:22 in 5288) [ClassicSimilarity], result of:
            0.030833228 = score(doc=5288,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.19345059 = fieldWeight in 5288, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5288)
      0.25 = coord(1/4)
    
    Abstract
    Purpose The purpose of this paper is to describe a new method to improve the analysis of search engine results by considering the provider level as well as the domain level. This approach is tested by conducting a study using queries on the topic of insurance comparisons. Design/methodology/approach The authors conducted an empirical study that analyses the results of search queries aimed at comparing insurance companies. The authors used a self-developed software system that automatically queries commercial search engines and automatically extracts the content of the returned result pages for further data analysis. The data analysis was carried out using the KNIME Analytics Platform. Findings Google's top search results are served by only a few providers that frequently appear in these results. The authors show that some providers operate several domains on the same topic and that these domains appear for the same queries in the result lists. Research limitations/implications The authors demonstrate the feasibility of this approach and draw conclusions for further investigations from the empirical study. However, the study is a limited use case based on a limited number of search queries. Originality/value The proposed method allows large-scale analysis of the composition of the top results from commercial search engines. It allows using valid empirical data to determine what users actually see on the search engine result pages.
    Date
    20. 1.2015 18:30:22
  5. Gillitzer, B.: Yewno (2017) 0.01
    0.01408102 = product of:
      0.05632408 = sum of:
        0.05632408 = sum of:
          0.0316575 = weight(_text_:software in 3447) [ClassicSimilarity], result of:
            0.0316575 = score(doc=3447,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.17532499 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
          0.024666581 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
            0.024666581 = score(doc=3447,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.15476047 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
      0.25 = coord(1/4)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  6. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.011871561 = product of:
      0.047486246 = sum of:
        0.047486246 = product of:
          0.09497249 = sum of:
            0.09497249 = weight(_text_:software in 5026) [ClassicSimilarity], result of:
              0.09497249 = score(doc=5026,freq=8.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.525975 = fieldWeight in 5026, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5026)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
  7. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.010281074 = product of:
      0.041124295 = sum of:
        0.041124295 = product of:
          0.08224859 = sum of:
            0.08224859 = weight(_text_:software in 5025) [ClassicSimilarity], result of:
              0.08224859 = score(doc=5025,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.4555077 = fieldWeight in 5025, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5025)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
  8. Knitel, M.; Labner, J.; Oberhauser, O.: Sachliche Erschließung und die neue Suchmaschine des Österreichischen Bibliothekenverbundes (2010) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 4207) [ClassicSimilarity], result of:
              0.055400617 = score(doc=4207,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 4207, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4207)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Einführung der neuen Suchmaschine Primo im Österreichischen Bibliothekenverbund wurde eine Neubewertung und Neuausrichtung der Anzeige, Indexierung und der erstmals möglichen Facettierung sacherschließender Elemente notwendig. Nach einem kurzen Überblick über die im Verbund zum Einsatz kommende Software sowie über Umfang und Art der inhaltlichen Erschließung im zentralen Katalog wird detailliert auf die angestrebte Umsetzung derselben in der neuen Suchmaschinenumgebung eingegangen, wobei der verbalen Erschließung durch RSWK-Ketten als wichtigste Form der intellektuellen Erschließung erhöhte Aufmerksamkeit zukommt. In einem zweiten Teil wird die konkrete technische Umsetzung in Primo beleuchtet, um abschließend einen Ausblick auf zukünftige Entwicklungen sowie projektierte Verbesserungen zu geben.
  9. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 5023) [ClassicSimilarity], result of:
              0.055400617 = score(doc=5023,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 5023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
  10. Lewandowski, D.: Query understanding (2011) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.049333163 = score(doc=344,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    18. 9.2018 18:22:18
  11. Bensman, S.J.: Eugene Garfield, Francis Narin, and PageRank : the theoretical bases of the Google search engine (2013) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 1149) [ClassicSimilarity], result of:
              0.049333163 = score(doc=1149,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 1149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1149)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    17.12.2013 11:02:22
  12. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.049333163 = score(doc=1484,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    13. 9.2014 14:45:22
  13. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.01
    0.0061666453 = product of:
      0.024666581 = sum of:
        0.024666581 = product of:
          0.049333163 = sum of:
            0.049333163 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.049333163 = score(doc=4996,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    19. 2.2019 17:22:00
  14. Lewandowski, D.: Evaluating the retrieval effectiveness of web search engines using a representative query sample (2015) 0.01
    0.0059357807 = product of:
      0.023743123 = sum of:
        0.023743123 = product of:
          0.047486246 = sum of:
            0.047486246 = weight(_text_:software in 2157) [ClassicSimilarity], result of:
              0.047486246 = score(doc=2157,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.2629875 = fieldWeight in 2157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2157)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Search engine retrieval effectiveness studies are usually small scale, using only limited query samples. Furthermore, queries are selected by the researchers. We address these issues by taking a random representative sample of 1,000 informational and 1,000 navigational queries from a major German search engine and comparing Google's and Bing's results based on this sample. Jurors were found through crowdsourcing, and data were collected using specialized software, the Relevance Assessment Tool (RAT). We found that although Google outperforms Bing in both query types, the difference in the performance for informational queries was rather low. However, for navigational queries, Google found the correct answer in 95.3% of cases, whereas Bing only found the correct answer 76.6% of the time. We conclude that search engine performance on navigational queries is of great importance, because users in this case can clearly identify queries that have returned correct results. So, performance on this query type may contribute to explaining user satisfaction with search engines.
  15. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.005140537 = product of:
      0.020562148 = sum of:
        0.020562148 = product of:
          0.041124295 = sum of:
            0.041124295 = weight(_text_:software in 2133) [ClassicSimilarity], result of:
              0.041124295 = score(doc=2133,freq=6.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.22775385 = fieldWeight in 2133, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  16. Fluhr, C.: Crosslingual access to photo databases (2012) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 93) [ClassicSimilarity], result of:
              0.03699987 = score(doc=93,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 93, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=93)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    17. 4.2012 14:25:22
  17. Chen, L.-C.: Next generation search engine for the result clustering technology (2012) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 105) [ClassicSimilarity], result of:
              0.03699987 = score(doc=105,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=105)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    17. 4.2012 15:22:11
  18. Bouidghaghen, O.; Tamine, L.: Spatio-temporal based personalization for mobile search (2012) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 108) [ClassicSimilarity], result of:
              0.03699987 = score(doc=108,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 108, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=108)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    20. 4.2012 13:19:22
  19. Lewandowski, D.: ¬Die Macht der Suchmaschinen und ihr Einfluss auf unsere Entscheidungen (2014) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.03699987 = score(doc=1491,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 9.2014 18:54:11
  20. Huvila, I.: Affective capitalism of knowing and the society of search engine (2016) 0.00
    0.0046249838 = product of:
      0.018499935 = sum of:
        0.018499935 = product of:
          0.03699987 = sum of:
            0.03699987 = weight(_text_:22 in 3246) [ClassicSimilarity], result of:
              0.03699987 = score(doc=3246,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.23214069 = fieldWeight in 3246, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3246)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    20. 1.2015 18:30:22