Search (50 results, page 1 of 3)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  • × year_i:[2010 TO 2020}
  1. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.04
    0.035654604 = product of:
      0.053481907 = sum of:
        0.00312801 = weight(_text_:e in 3080) [ClassicSimilarity], result of:
          0.00312801 = score(doc=3080,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.04764253 = fieldWeight in 3080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.050353896 = sum of:
          0.024097443 = weight(_text_:von in 3080) [ClassicSimilarity], result of:
            0.024097443 = score(doc=3080,freq=10.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.19773737 = fieldWeight in 3080, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
          0.026256453 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
            0.026256453 = score(doc=3080,freq=4.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.16414827 = fieldWeight in 3080, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3080)
      0.6666667 = coord(2/3)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
  2. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.03
    0.03309504 = product of:
      0.09928511 = sum of:
        0.09928511 = sum of:
          0.04977547 = weight(_text_:von in 1484) [ClassicSimilarity], result of:
            0.04977547 = score(doc=1484,freq=6.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.40844458 = fieldWeight in 1484, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
          0.04950964 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
            0.04950964 = score(doc=1484,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.30952093 = fieldWeight in 1484, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=1484)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22
  3. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.03
    0.03309504 = product of:
      0.09928511 = sum of:
        0.09928511 = sum of:
          0.04977547 = weight(_text_:von in 4996) [ClassicSimilarity], result of:
            0.04977547 = score(doc=4996,freq=6.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.40844458 = fieldWeight in 4996, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=4996)
          0.04950964 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
            0.04950964 = score(doc=4996,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.30952093 = fieldWeight in 4996, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=4996)
      0.33333334 = coord(1/3)
    
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
    Source
    https://www.heise.de/tp/features/Von-der-automatisierten-Manipulation-zur-Manipulation-der-Automatisierung-4296557.html?wt_mc=nl.tp-aktuell.woechentlich
  4. Lewandowski, D.: Query understanding (2011) 0.03
    0.026082506 = product of:
      0.07824752 = sum of:
        0.07824752 = sum of:
          0.028737878 = weight(_text_:von in 344) [ClassicSimilarity], result of:
            0.028737878 = score(doc=344,freq=2.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.23581557 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
          0.04950964 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
            0.04950964 = score(doc=344,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.30952093 = fieldWeight in 344, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=344)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
  5. epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017) 0.02
    0.023701979 = product of:
      0.071105935 = sum of:
        0.071105935 = sum of:
          0.040162407 = weight(_text_:von in 3815) [ClassicSimilarity], result of:
            0.040162407 = score(doc=3815,freq=10.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.32956228 = fieldWeight in 3815, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3815)
          0.030943526 = weight(_text_:22 in 3815) [ClassicSimilarity], result of:
            0.030943526 = score(doc=3815,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.19345059 = fieldWeight in 3815, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3815)
      0.33333334 = coord(1/3)
    
    Content
    "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
    Date
    22. 7.2004 9:42:33
  6. Schmidt, E.; Rosenberg, J.: Wie Google tickt (2015) 0.02
    0.018140804 = product of:
      0.027211206 = sum of:
        0.0052133505 = weight(_text_:e in 2406) [ClassicSimilarity], result of:
          0.0052133505 = score(doc=2406,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.07940422 = fieldWeight in 2406, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2406)
        0.021997856 = product of:
          0.043995712 = sum of:
            0.043995712 = weight(_text_:von in 2406) [ClassicSimilarity], result of:
              0.043995712 = score(doc=2406,freq=12.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3610174 = fieldWeight in 2406, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2406)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wie wird aus einem Garagen-Start-up ein weltbekanntes Imperium? Das Geheimnis um Google, eine der wertvollsten Marken der Welt,ist gelüftet. Von niemand Geringerem als Google-CEO Eric Schmidt, Gründer Larry Page und Senior Vice President Jonathan Rosenberg. Und so wie Google längst mehr als eine Suchmaschine ist, ist »Wie Google tickt« weit mehr als eine Unternehmensgeschichte. Es ist spannende Inspirationsquelle und kluger Wegweiser. Wie baut man eine fruchtbare Unternehmenskultur auf? Wie entwickelt man wegweisende Strategien? Wie entsteht Innovation? Die drei Google-Insider sind angetreten, ihr Wissen in die Welt zu bringen. Eric Schmidt ist Informatiker und war langjähriger CEO von Google. Seit April ist er Executive Chairman von Google. Schmidt lehrt an der Stanford University und gehört seit 2009 zum Beraterteam von Barack Obama. Jonathan Rosenberg, Senior Vice President von Google, war vor allem für die innovative Produktentwicklung verantwortlich. Zusammen sind sie echte Google-Insider.
    Issue
    Aus dem Engl. von Meike Grow u.a.
  7. Gillitzer, B.: Yewno (2017) 0.02
    0.01502519 = product of:
      0.04507557 = sum of:
        0.04507557 = sum of:
          0.020320749 = weight(_text_:von in 3447) [ClassicSimilarity], result of:
            0.020320749 = score(doc=3447,freq=4.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.1667468 = fieldWeight in 3447, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
          0.02475482 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
            0.02475482 = score(doc=3447,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.15476047 = fieldWeight in 3447, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=3447)
      0.33333334 = coord(1/3)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  8. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.01
    0.014987847 = product of:
      0.04496354 = sum of:
        0.04496354 = sum of:
          0.026397426 = weight(_text_:von in 3374) [ClassicSimilarity], result of:
            0.026397426 = score(doc=3374,freq=12.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.21661043 = fieldWeight in 3374, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
          0.018566115 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
            0.018566115 = score(doc=3374,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.116070345 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
      0.33333334 = coord(1/3)
    
    Content
    "Googeln hat es bis in den Duden geschafft. Kein Wunder, dass viele das Angebot aus dem kalifornischen Mountain View quasi als amtliche Internet-Suchmaschine betrachten und nutzen. Wegen seiner unzähligen Zusatzdienste vom Webmailer bis hin zu Onlinekarten hat sich Google aber auch den Ruf eines Datenkraken erworben. Auch deshalb wenden sich viele Nutzer den Suchmaschinen der Konkurrenz zu. So propagiert der Verein für freien Wissenszugang (Suma eV) aus Hannover, dass es wichtig sei, "mehrere, unabhängig voneinander arbeitende Suchmaschinen einzusetzen, um einen möglichst neutralen und umfassenden Überblick geeigneter Quellen zu erhalten". Schirmherr des Vereins ist der MP3-Erfinder Karlheinz Brandenburg. Bei einem Quasi-Monopol wie es Google innehat, bestehe "auf Dauer die Gefahr, dass die Ergebnisse der Informationssuche von Einflüssen nicht allgemein erkennbarer Mechanismen der Betreiber geleitet werden." Laut dem Internet-Statistikdienst Hitslink liefen in diesem Jahr bisher knapp 86 Prozent aller Suchanfragen weltweit über Google. Platz zwei belegt weit abgeschlagen Yahoo mit knapp sechs Prozent. Microsofts Suche Bing belegt - noch nicht einmal ein Jahr alt - mit gut drei Prozent bereits den dritten Rang. Vergleichsweise stark genutzt wird rund um den Globus auch noch die globale Suche von Ask. Hindernisse türmen sich vor wechselfreudigen Surfern jedenfalls nicht auf und Probieren kostet nichts. Jeder beliebige Suchdienst lässt sich bei Browsern wie Firefox oder Internet Explorer mühelos einbinden oder als Startseite festlegen.
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  9. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.01
    0.011006931 = product of:
      0.016510395 = sum of:
        0.009325925 = weight(_text_:e in 1840) [ClassicSimilarity], result of:
          0.009325925 = score(doc=1840,freq=10.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.14204259 = fieldWeight in 1840, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=1840)
        0.0071844696 = product of:
          0.014368939 = sum of:
            0.014368939 = weight(_text_:von in 1840) [ClassicSimilarity], result of:
              0.014368939 = score(doc=1840,freq=2.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.117907785 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1840)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Classification
    AYZ (E)
    KNZZ (E)
    Footnote
    Rez. in: Mitt. VOEB 68(2015) H.1, S.180-183 (O.Oberhauser): "Aus dieser kurzen Skizze geht hervor, dass der vorliegende Band eine Reihe interessanter und mitunter auch brisanter Teilthemen beinhaltet. Wer an der Diskussion um die Rolle der meistgenutzten Suchmaschine in unserer Gesellschaft Interesse hat, findet in diesem Buch reichlich Material und Ideen. Jeder Beitrag wird zudem durch ein Literaturverzeichnis ergänzt, in dem weiterführende Quellen genannt werden. Die Beiträge sind durchweg "lesbar" geschrieben und nur in mässigem Ausmass von soziologischem oder rechtswissenschaftlichem Fachjargon durchsetzt. In stilistischer Hinsicht ist der Text dennoch nicht ohne Probleme, zumal bereits im ersten Absatz der Einleitung ein als Hauptsatz "verkaufter" Nebensatz auffällt ("Denn Suchmaschinenbetreiber wie Google ermöglichen und gestalten den Zugang zu Informationen im Netz.") und die gleiche stilistische Schwäche allein in der 19-seitigen Einleitung in über einem Dutzend weiterer Fälle registriert werden kann, vom nächsten Beitrag gar nicht zu sprechen. Ein funktionierendes Verlagslektorat hätte derlei rigoros bereinigen müssen. Es hätte eventuell auch dafür Sorge tragen können, dass am Ende des Bandes nicht nur ein Verzeichnis der Autorinnen und Autoren aufscheint, sondern auch ein Sachregister - ein solches fehlt nämlich bedauerlicherweise. In optischer Hinsicht ist der Hardcover-Band ansprechend gestaltet und gut gelungen. Der Preis liegt mit rund 80 Euro leider in der Oberklasse; auch die E-Book-Version macht die Anschaffung nicht billiger, da kein Preisunterschied zur gebundenen Ausgabe besteht. Dennoch ist das Buch aufgrund der interessanten Inhalte durchaus zu empfehlen; grössere Bibliotheken sowie kommunikations- und informationswissenschaftliche Spezialsammlungen sollten es nach Möglichkeit erwerben."
    GHBS
    AYZ (E)
    KNZZ (E)
  10. Werner, K.: das Confirmation/Disconfirmation-Paradigma der Kundenzufriedenheit im Kontext des Information Retrieval : Größere Zufriedenheit durch bessere Suchmaschinen? (2010) 0.01
    0.010709975 = product of:
      0.032129925 = sum of:
        0.032129925 = product of:
          0.06425985 = sum of:
            0.06425985 = weight(_text_:von in 4016) [ClassicSimilarity], result of:
              0.06425985 = score(doc=4016,freq=10.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.52729964 = fieldWeight in 4016, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4016)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In der vorgestellten Studie aus dem Bereich des interaktiven Information Retrieval wurde erstmals die Erwartungshaltung von Suchmaschinennutzern als mögliche Determinante der Benutzerzufriedenheit untersucht. Das experimentelle Untersuchungsdesign basiert auf einem betriebswirtschaftlichen Modell, das die Entstehung von Kundenzufriedenheit durch die Bestätigung bzw. Nicht-Bestätigung von Erwartungen erklärt. Ein zentrales Ergebnis dieser Studie ist, das bei der Messung von Benutzerzufriedenheit besonders auf den Messzeitpunkt zu achten ist. Des Weiteren konnte ein von der Systemgüte abhängiger Adaptionseffekt hinsichtlich der Relevanzbewertung der Benutzer nachgewiesen werden.
  11. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.01
    0.010709975 = product of:
      0.032129925 = sum of:
        0.032129925 = product of:
          0.06425985 = sum of:
            0.06425985 = weight(_text_:von in 349) [ClassicSimilarity], result of:
              0.06425985 = score(doc=349,freq=10.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.52729964 = fieldWeight in 349, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=349)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
  12. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.01
    0.009657918 = product of:
      0.014486876 = sum of:
        0.0026066753 = weight(_text_:e in 6) [ClassicSimilarity], result of:
          0.0026066753 = score(doc=6,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.03970211 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.01953125 = fieldNorm(doc=6)
        0.011880201 = product of:
          0.023760403 = sum of:
            0.023760403 = weight(_text_:von in 6) [ClassicSimilarity], result of:
              0.023760403 = score(doc=6,freq=14.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.1949717 = fieldWeight in 6, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=6)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "Ganze "230 Adressen im World Wide Web, 250 Server und 100 per E-Mail zugängliche Informationsquellen". So stand es 1995 in der "Updated Internet Services List". Die manuell zusammengetragene Adressliste, nach ihrem Urheber auch als "Yanoff-Liste" bekannt, war einer der ersten Versuche, die anschwellende Informationsflut des Internet zu kanalisieren. Aus einem dieser Verzeichnisse, das zunächst von Studenten zusammengetragen wurde, entstand kurze Zeit später mit Yahoo die Mutter aller Suchmaschinen. Die englische Wortkombination "Search Engine" ist allerdings irreführend. Denn dahinter steckt in Wahrheit eine Software, die automatisch einen Index der Internetinhalte erstellt. Denn der Fleiß einer Handvoll Studenten reichte schon bald nicht mehr aus, das sich explosionsartig ausbreitende Web auch nur ansatzweise zu erfassen.
    Keine ernsthafte Konkurrenz Damit ist die Geschichte der Suchmaschinen weitestgehend erzählt - außer, dass Yahoo praktisch keine Rolle mehr spielt. Um das Gesuchte in den Weiten des Netzes zu finden, benutzt man heute Google. Mehr als 90 Prozent aller Suchanfragen in Deutschland laufen Schätzungen zufolge über die Rechenzentren des US-Konzerns. Ernsthafte Konkurrenten? Keine. Einst erfolgreiche Dienste wie Excite, Infoseek, AltaVista oder Lycos sind längst von der Bildfläche verschwunden. Liefert nicht Google zu allen erdenklichen Suchbegriffen zigtausend Ergebnisse? Mehr, so die allgemeine Auffassung, kann sowieso kein Mensch verarbeiten. Dahinter steht der naive Glaube, Google bilde die digitale Welt in ihrer Gesamtheit ab. Oder, schlimmer noch, gar die reale Welt. Dabei könnte nichts weiter von der Realität entfernt sein, wie Dr. Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Leibniz-Universität Hannover erklärt. Denn Google entscheidet, nach welchen Kriterien die digitale Welt durchkämmt wird. Google legt fest, welche Webseiten unter den ersten zehn Ergebnissen zu einer Suche angezeigt werden. Da die Mehrheit der Nutzer ohnehin nur diese wahrnimmt, bestimmt ein einzelnes Unternehmen, welchen Ausschnitt der Wirklichkeit die Menschheit zu sehen bekommt. Und die Algorithmen, nach denen die Suchmaschine funktioniert, hält der Konzern streng unter Verschluss: "Google entscheidet, welches Wissen wahrgenommen wird, und welches nicht; was im Internet existiert und was nicht." Die Macht, die dem Konzern damit zukomme, reiche weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinaus. "Was wir hier beobachten, ist eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur", warnt der Wissenschaftler, der deshalb bereits vor Jahren "SuMa e.V.", einen "Verein für freien Wissenszugang", gegründet hat. Er setzt sich dafür ein, "globale Online-Oligopole besser zu kontrollieren". Um den freien Zugang zu dem im Internet gespeicherten Wissen für möglichst viele Menschen zu ermöglichen, sei es außerdem "von entscheidender Bedeutung, die dahinterstehende Technologie zu entwickeln und zu fördern - auch und gerade in Deutschland." Doch genau das wurde in den vergangenen zehn Jahren versäumt.
    Neue Entwicklungen im Netz Doch es gibt durchaus Ansätze, dem Goliath Google die Stirn zu bieten. Zu den Davids, die das versuchen, gehört Michael Schöbel. Seit 1999 betreibt er die deutsche Suchmaschine Acoon - als Gründer, Geschäftsführer und einziger Angestellter. Schöbel gibt sich jedoch keinen besonderen Illusionen hin. "Allein vom Datenumfang her kann ich mit den von Google erfassten 50 Milliarden erfassten Webseiten natürlich nicht konkurrieren." Die Erfassung koste eine Menge Geld, ebenso wie die Server, die man zum Speichern solcher Datenbestände bereitstellen müsste. Dennoch hält es der Einzelkämpfer für wichtig, "dem rein amerikanischen Blick auf die Welt eine eigene Sichtweise entgegenzusetzen." Weil Acoon auf einen vollkommen eigenständigen Suchindex setze, erhalte der Nutzer Suchergebnisse, "die gut sind, ohne dabei dem Einheitsbrei zu entsprechen." Hoffnung macht Google-Kritikern derzeit aber vor allem eine Firma, die bislang nicht unbedingt im Verdacht konterrevolutionärer Aktivitäten stand: Microsoft. Dessen Suchmaschine Bing konnte Google bereits einige Marktanteile gewinnen - freilich nicht, ohne zuvor selbst eine Reihe kleinerer Anbieter geschluckt zu haben. Auch das einst so einflussreiche Webverzeichnis Yahoo! bezieht seine Ergebnisse mittlerweile aus dem Bing-Index.
    Und natürlich schlägt Microsoft in die gleiche Kerbe wie Google. Denn auch die Bing-Suche steht ganz im Zeichen der "Individualisierung" der Ergebnisse. "Social Search" nennt sich die (noch) optionale Möglichkeit, Facebook-Einträge von Freunden als Suchkriterien zu verwenden. Schließlich, so die Meinung des Konzerns, beeinflusse der "Freunde-Effekt" die Entscheidung von Menschen in der Regel mehr als andere Faktoren. Die Entwicklung zeigt eindrucksvoll, wie schnell sich die beiden letzten Großen im Suchmaschinen-Geschäft neue Entwicklungen im Netz aneignen. Im Web 2.0 bildeten Blogs und Soziale Netzwerke bislang gewissermaßen ein demokratisches Gegengewicht zum Meinungsmonopol. Doch auch hier ist der Internet-Goliath bereits am Start. Wer sich schon immer mal gefragt hat, warum der Such-Gigant praktisch monatlich mit neuen Angeboten wie etwa Google+ aufwartet, findet hier eine Antwort. Mit dem kostenlosen Smartphone-Betriebssystem Android sicherte man sich eine gewichtige Position auf dem expandieren Markt für mobile Plattformen. Trotz ihrer momentanen Allmacht erkennen die Konzernlenker also durchaus die Gefahr, irgendwann einmal selbst vom Zug der Zeit überrollt zu werden. Für die meisten Konkurrenten kommt diese Einsicht zu spät."
  13. Ulbrich, D.: Suchmaschinenoptimierung für öffentliche Bibliotheken am Beispiel von Google (2016) 0.01
    0.009579293 = product of:
      0.028737878 = sum of:
        0.028737878 = product of:
          0.057475757 = sum of:
            0.057475757 = weight(_text_:von in 3180) [ClassicSimilarity], result of:
              0.057475757 = score(doc=3180,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.47163114 = fieldWeight in 3180, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3180)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Artikel befasst sich mit der Beudeutung von Suchmaschinenoptimierung für öffentliche Bibliotheken. Für ein besseres Verständnis der Optimierungen wird die grundlegende Vorgehensweise von Suchmaschinen erläutert und ein Einblick in den Aufbau von Websitemodellen gegeben. Es wird gezeigt werden, dass die Ziele einer Suchmaschinenoptimierung weitreichender sind, als nur in der Google Trefferliste auf Platz eins zu stehen und dass die Verwirklichung dieser Ziele einer umfassenden Planung bedart. Abschließend werden die praktischen Maßnahmen für die Optimierung der Website dargestellt.
  14. Weinhold, T.; Bekavec, B.; Schneider, G.; Bauer, L.; Böller, N.: Wissenschaftliche Suchmaschinen : Übersicht, Technologien, Funktionen und Vergleich (2011) 0.01
    0.008799142 = product of:
      0.026397426 = sum of:
        0.026397426 = product of:
          0.05279485 = sum of:
            0.05279485 = weight(_text_:von in 347) [ClassicSimilarity], result of:
              0.05279485 = score(doc=347,freq=12.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.43322086 = fieldWeight in 347, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=347)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Beitrag beschäftigt sich primär mit der technischen Funktionsweise von wissenschaftlichen Suchmaschinen. Nach einer kurzen Einführung über das Angebot von wissenschaftlichen Informationen im Internet erfolgt zunächst eine Definition des Begriffs der wissenschaftlichen Suchmaschine. Darauf aufbauend wird dargestellt, welche Stärken und Schwächen wissenschaftliche Suchmaschinen gegenwärtig aufweisen und für welche Einsatzzwecke sie besonders geeignet sind. Anschließend wird die technische Funktionsweise dieser Suchdienste beschrieben, wobei insbesondere auf jene Aspekte eingegangen wird, in denen sich wissenschaftliche von allgemeinen Suchmaschinen unterscheiden. Neben dem internen Aufbau der Suchmaschinen wird in diesem Zusammenhang auch auf die von wissenschaftlichen Suchmaschinen angebotenen Suchoperatoren und Interaktionsmechanismen eingegangen. Wichtig sind in diesem Kontext insbesondere auch der Zugriff und die Referenzierung von Dokumenten. Abschließend wird anhand einer von den Autoren erarbeiteten Kriterienliste ein vergleichender Überblick über am Markt existierende, wissenschaftliche Suchmaschinen gegeben.
  15. Lewandowski, D.: Suchmaschinen (2013) 0.01
    0.0084669795 = product of:
      0.025400937 = sum of:
        0.025400937 = product of:
          0.050801873 = sum of:
            0.050801873 = weight(_text_:von in 731) [ClassicSimilarity], result of:
              0.050801873 = score(doc=731,freq=4.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.416867 = fieldWeight in 731, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.078125 = fieldNorm(doc=731)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  16. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.01
    0.008381882 = product of:
      0.025145644 = sum of:
        0.025145644 = product of:
          0.05029129 = sum of:
            0.05029129 = weight(_text_:von in 5023) [ClassicSimilarity], result of:
              0.05029129 = score(doc=5023,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.41267726 = fieldWeight in 5023, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5023)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
  17. Peters, I.: Folksonomies und kollaborative Informationsdienste : eine Alternative zur Websuche? (2011) 0.01
    0.008295912 = product of:
      0.024887735 = sum of:
        0.024887735 = product of:
          0.04977547 = sum of:
            0.04977547 = weight(_text_:von in 343) [ClassicSimilarity], result of:
              0.04977547 = score(doc=343,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.40844458 = fieldWeight in 343, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=343)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Folksonomies ermöglichen den Nutzern in Kollaborativen Informationsdiensten den Zugang zu verschiedenartigen Informationsressourcen. In welchen Fällen beide Bestandteile des Web 2.0 am besten für das Information Retrieval geeignet sind und wo sie die Websuche ggf. ersetzen können, wird in diesem Beitrag diskutiert. Dazu erfolgt eine detaillierte Betrachtung der Reichweite von Social-Bookmarking-Systemen und Sharing-Systemen sowie der Retrievaleffektivität von Folksonomies innerhalb von Kollaborativen Informationsdiensten.
  18. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.008295912 = product of:
      0.024887735 = sum of:
        0.024887735 = product of:
          0.04977547 = sum of:
            0.04977547 = weight(_text_:von in 3611) [ClassicSimilarity], result of:
              0.04977547 = score(doc=3611,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.40844458 = fieldWeight in 3611, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3611)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Suchmaschinen befinden sich einerseits in einem beständigen Wandel. Andererseits gibt es immer wieder Entwicklungen, die die Suche "auf eine neue Ebene" heben. Eine solche Entwicklung, die wir zurzeit erleben, wird unter dem Label "Next Generation Search Systems" geführt. Der Begriff fasst die Veränderungen durch eine Vielfalt von Geräten und Eingabemöglichkeiten, die Verfügbarkeit von Verhaltensdaten en masse und den Wandel von Dokumenten zu Antworten zusammen.
  19. Behnert, C.: Kriterien und Einflussfaktoren bei der Relevanzbewertung von Surrogaten in akademischen Informationssystemen (2019) 0.01
    0.008295912 = product of:
      0.024887735 = sum of:
        0.024887735 = product of:
          0.04977547 = sum of:
            0.04977547 = weight(_text_:von in 5024) [ClassicSimilarity], result of:
              0.04977547 = score(doc=5024,freq=6.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.40844458 = fieldWeight in 5024, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5024)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Beitrag wird ein Nutzermodell für Relevanzbewertungen in akademischen Informationssystemen unter Berücksichtigung von Popularitätsdaten vorgestellt. Das Modell stellt erstmals eine systematische Darstellung der Einflussgrößen von Relevanzbewertungen vor und nimmt eine explizite Unterscheidung zwischen Relevanzmerkmalen, Relevanzkriterien und Relevanzfaktoren vor. Der Fokus liegt auf Suchergebnissen, die neben den üblichen Elementen wie Titel und Beschreibung auch Popularitätsdaten enthalten, wie zum Beispiel Zitations- oder Downloadzahlen zu einem Werk.
  20. Flores-Herr, N.; Sack, H.; Bossert, K.: Suche in Multimediaarchiven von Kultureinrichtungen (2011) 0.01
    0.008032481 = product of:
      0.024097443 = sum of:
        0.024097443 = product of:
          0.048194885 = sum of:
            0.048194885 = weight(_text_:von in 346) [ClassicSimilarity], result of:
              0.048194885 = score(doc=346,freq=10.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.39547473 = fieldWeight in 346, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=346)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In diesem Kapitel werden Vorschläge für neue Suchparadigmen nach multimedialen Inhalten in Archiven von Kultureinrichtungen vorgestellt. Um die Notwendigkeit für eine Integration dieser neuen Technologien zu zeigen, werden zunächst Einschränkungen der klassischen katalogbasierten Bibliothekssuche im Zeitalter von immer weiter wachsenden Multimediasammlungen beschrieben. Im Anschluss werden die Vor- und Nachteile zweier Suchparadigmen dargestellt, mit deren Hilfe in Zukunft für Wissenschaftler und Kulturschaffende die Suche nach multimedialen Inhalten erleichtert werden könnte. Zunächst werden die Perspektiven einer semantischen Suche auf Basis von Semantic-Web-Technologien in Bibliotheken beschrieben. Im Anschluss werden Suchmöglichkeiten für Multimediainhalte auf Basis von automatischer inhaltsbasierter Medienanalyse gezeigt. Das Kapitel endet mit einem Ausblick auf eine mögliche Vereinigung der beiden neuen Ansätze mit katalogbasierter Bibliothekssuche.

Types

  • a 36
  • el 12
  • m 7
  • s 3
  • r 2
  • x 1
  • More… Less…