Search (600 results, page 1 of 30)

  • × theme_ss:"Suchmaschinen"
  1. bs: Startschuss zur Desktop Razzia (2005) 0.09
    0.09478492 = product of:
      0.18956985 = sum of:
        0.025851974 = weight(_text_:und in 3251) [ClassicSimilarity], result of:
          0.025851974 = score(doc=3251,freq=2.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.24487628 = fieldWeight in 3251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3251)
        0.12335772 = weight(_text_:anwendung in 3251) [ClassicSimilarity], result of:
          0.12335772 = score(doc=3251,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.5349128 = fieldWeight in 3251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.078125 = fieldNorm(doc=3251)
        0.04036015 = weight(_text_:des in 3251) [ClassicSimilarity], result of:
          0.04036015 = score(doc=3251,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.30596817 = fieldWeight in 3251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=3251)
      0.5 = coord(3/6)
    
    Abstract
    Die Suche nach Informationen und Dateien auf dem eigenen PC blieb bisher ein mühsames Unterfangen. Jetzt aber scheint die Zeit für eine neue, zentrale Desktop Anwendung gekommen. Die Schlacht um die Gunst des PC-Anwenders hat begonnen
  2. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.08
    0.082892686 = product of:
      0.16578537 = sum of:
        0.02686616 = weight(_text_:und in 3911) [ClassicSimilarity], result of:
          0.02686616 = score(doc=3911,freq=6.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.2544829 = fieldWeight in 3911, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.1046725 = weight(_text_:anwendung in 3911) [ClassicSimilarity], result of:
          0.1046725 = score(doc=3911,freq=4.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.4538886 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.03424672 = weight(_text_:des in 3911) [ClassicSimilarity], result of:
          0.03424672 = score(doc=3911,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.25962257 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.5 = coord(3/6)
    
    Abstract
    Methoden der Suchmaschinenoptimierung werden im vorliegenden Buch umfassend beleuchtet. Nach einer Einführung in das Thema besteht ein erster Schwerpunkt darin, konkrete Handlungsanweisungen für die Suchmaschinenoptimierung einer Website aufzuzeigen. Dazu wird ein Optimierungszyklus in neun Schritten vorgestellt, welcher die Felder OffPage-Optimierung, OnPage-Optimierung und Keyword-Recherche einschließt. Darüber hinaus führt der Autor die zusätzliche Kategorie der Content-Strategie ein, um die Quellen und Verbreitungswege potentieller neuer Inhalte zu systematisieren. Um die Anschaulichkeit und den Praxisbezug noch zu erhöhen, stellt der Autor eine konkrete Anwendung des vorgestellten Optimierungszyklus am Beispiel einer real existierenden Website vor.
    Content
    Einleitung - Grundlagen - Die Funktionsweise der Suchmaschinen - Die Besonderheiten der Suchmaschine Google - Multimedia im World Wide Web - Die Strukturierung einer Internetpräsenz - Der 9-Punkte-Optimierungsplan - Die Anwendung des Optimierungsplans am Beispiel www.still.de - Zusammenfassung
  3. Gillitzer, B.: Yewno (2017) 0.08
    0.08157709 = product of:
      0.12236563 = sum of:
        0.037284248 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.037284248 = score(doc=3447,freq=26.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.04934309 = weight(_text_:anwendung in 3447) [ClassicSimilarity], result of:
          0.04934309 = score(doc=3447,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.21396513 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.022831148 = weight(_text_:des in 3447) [ClassicSimilarity], result of:
          0.022831148 = score(doc=3447,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.17308173 = fieldWeight in 3447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.01290715 = product of:
          0.0258143 = sum of:
            0.0258143 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.0258143 = score(doc=3447,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  4. Bekavac, B.: Suchverfahren und Suchdienste des World Wide Web (1996) 0.08
    0.080220655 = product of:
      0.16044131 = sum of:
        0.037994485 = weight(_text_:und in 4803) [ClassicSimilarity], result of:
          0.037994485 = score(doc=4803,freq=12.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.35989314 = fieldWeight in 4803, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4803)
        0.074014634 = weight(_text_:anwendung in 4803) [ClassicSimilarity], result of:
          0.074014634 = score(doc=4803,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.3209477 = fieldWeight in 4803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=4803)
        0.04843218 = weight(_text_:des in 4803) [ClassicSimilarity], result of:
          0.04843218 = score(doc=4803,freq=8.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.36716178 = fieldWeight in 4803, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4803)
      0.5 = coord(3/6)
    
    Abstract
    Das WWW ermöglicht den einfachen Zugriff auf eine große und stark wachsende Menge an Informationen. Die gezielte Suche nach relevanten WWW-Dokumenten wird zunehmens zu einer zentralen Aufgabe innerhalb des WWW. Dieser Beitrag beschreibt verschiedene Verfahren, die zur lokalen und globalen Suche im WWW verwendet werden. Client-basierte Suchtools mit automatischer Navigation, die bei einigen wenigen WWW-Browsern fest implementiert sind, ermöglichen eine Suche ausgehend von einer Startseite. Weitaus breiter Anwendung finden aber Server-basierte Suchverfahren, die sowohl die lokale Suche innerhalb eines WWW-Servers als auch die weltweite Suche über WWW-Kataloge und roboterbasiertes Suchmaschinen ermöglichen. In diesem Beitrag werden gängige verzeichnis- und roboterbasierte Suchdienste des WWW von ihrer Funktionalität her untersucht und verglichen. Erwähnt werden aber auch Beispiele alternativer Suchmaschinen sowie erweiterter Suchdienste, die eine zusätzliche Suche auch außerhalb des Internet ermöglichen
  5. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.08
    0.07739745 = product of:
      0.1547949 = sum of:
        0.046533555 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.046533555 = score(doc=5025,freq=18.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.074014634 = weight(_text_:anwendung in 5025) [ClassicSimilarity], result of:
          0.074014634 = score(doc=5025,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.3209477 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.03424672 = weight(_text_:des in 5025) [ClassicSimilarity], result of:
          0.03424672 = score(doc=5025,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.25962257 = fieldWeight in 5025, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.5 = coord(3/6)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  6. Wyss, V.; Keel, G.: Google als Trojanisches Pferd? : Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität (2007) 0.07
    0.071412146 = product of:
      0.14282429 = sum of:
        0.02686616 = weight(_text_:und in 385) [ClassicSimilarity], result of:
          0.02686616 = score(doc=385,freq=6.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.2544829 = fieldWeight in 385, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=385)
        0.074014634 = weight(_text_:anwendung in 385) [ClassicSimilarity], result of:
          0.074014634 = score(doc=385,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.3209477 = fieldWeight in 385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.046875 = fieldNorm(doc=385)
        0.0419435 = weight(_text_:des in 385) [ClassicSimilarity], result of:
          0.0419435 = score(doc=385,freq=6.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.31797147 = fieldWeight in 385, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=385)
      0.5 = coord(3/6)
    
    Abstract
    Ohne Suchmaschinen bliebe das Internet ein ungeordneter Datenfriedhof mit all den bekannten Mängeln zufällig aufgehäufter Informationshalden, insbesondere ohne Relevanzstruktur. Auch für Journalisten wird das Internet erst durch Suchmaschinen zum brauchbaren Netz. Suchmaschinen haben eine wesentliche Bedeutung für die Recherchepraktiken und sie haben das Potenzial, die soziale Struktur des Journalismus wesentlich mitzuprägen oder gar zu verändern. Offensichtlich wird nämlich, dass der Suchmaschine nicht nur eine suchende, sondern auch eine ordnende Funktion zukommt - sie ist eben Selektionsmaschine. Die Selektionsleistung der technischen Gatekeeper löst aber nicht nur Probleme, weil beispielsweise das gezielte Suchen von Informationen rasch und kostengünstig erfolgen kann; Suchmaschinen schaffen auch neue Probleme, mit denen der Journalismus konfrontiert ist. Das vorliegende Kapitel diskutiert die Frage, inwiefern sich die Internetrecherche von Journalisten auf die journalistische Qualität auswirkt. Im Zentrum des vorliegenden Kapitels steht die theoretische Sichtweise auf den möglichen Einfluss der Anwendung von Suchmaschinen auf die soziale Praxis bzw. auf die Struktur des Journalismus, und damit auch auf die Produktion der journalistischen Qualität.
  7. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.07
    0.06787893 = product of:
      0.1018184 = sum of:
        0.026363943 = weight(_text_:und in 3635) [ClassicSimilarity], result of:
          0.026363943 = score(doc=3635,freq=52.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.24972577 = fieldWeight in 3635, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.024671545 = weight(_text_:anwendung in 3635) [ClassicSimilarity], result of:
          0.024671545 = score(doc=3635,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.10698257 = fieldWeight in 3635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.039544705 = weight(_text_:des in 3635) [ClassicSimilarity], result of:
          0.039544705 = score(doc=3635,freq=48.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.29978633 = fieldWeight in 3635, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.011238206 = product of:
          0.022476412 = sum of:
            0.022476412 = weight(_text_:thesaurus in 3635) [ClassicSimilarity], result of:
              0.022476412 = score(doc=3635,freq=2.0), product of:
                0.2201145 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.047632713 = queryNorm
                0.10211237 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  8. Wätjen, H.-J.: Mensch oder Maschine? : Auswahl und Erschließung vonm Informationsressourcen im Internet (1996) 0.06
    0.06295298 = product of:
      0.12590596 = sum of:
        0.03656021 = weight(_text_:und in 3161) [ClassicSimilarity], result of:
          0.03656021 = score(doc=3161,freq=4.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.34630734 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.057077873 = weight(_text_:des in 3161) [ClassicSimilarity], result of:
          0.057077873 = score(doc=3161,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.43270433 = fieldWeight in 3161, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=3161)
        0.032267876 = product of:
          0.06453575 = sum of:
            0.06453575 = weight(_text_:22 in 3161) [ClassicSimilarity], result of:
              0.06453575 = score(doc=3161,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.38690117 = fieldWeight in 3161, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3161)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    2. 2.1996 15:40:22
    Footnote
    Erscheint in: Zeitschrift für Bibliothekswesen und Bibliographie; abzurufen vom Server des Verfassers: http://waetjen.bis.uni-oldenburg.de
    Source
    Vortrag anläßlich des Workshops'Internet-basierte Informationssysteme der Bibliotheken', 15.-17.1.96 in Bielefeld
  9. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.06
    0.057329014 = product of:
      0.11465803 = sum of:
        0.047015782 = weight(_text_:und in 329) [ClassicSimilarity], result of:
          0.047015782 = score(doc=329,freq=54.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.44534507 = fieldWeight in 329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.043175202 = weight(_text_:anwendung in 329) [ClassicSimilarity], result of:
          0.043175202 = score(doc=329,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.18721949 = fieldWeight in 329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
        0.024467042 = weight(_text_:des in 329) [ClassicSimilarity], result of:
          0.024467042 = score(doc=329,freq=6.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.18548335 = fieldWeight in 329, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=329)
      0.5 = coord(3/6)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
  10. Kink, N.; Hess, T.: Suchmaschinen als Substitut traditioneller Medien? : Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen (2007) 0.06
    0.057294834 = product of:
      0.11458967 = sum of:
        0.037284248 = weight(_text_:und in 390) [ClassicSimilarity], result of:
          0.037284248 = score(doc=390,freq=26.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.3531656 = fieldWeight in 390, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.04934309 = weight(_text_:anwendung in 390) [ClassicSimilarity], result of:
          0.04934309 = score(doc=390,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.21396513 = fieldWeight in 390, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
        0.027962333 = weight(_text_:des in 390) [ClassicSimilarity], result of:
          0.027962333 = score(doc=390,freq=6.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.21198097 = fieldWeight in 390, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=390)
      0.5 = coord(3/6)
    
    Abstract
    Das Internet hat sich in den letzten Jahren rasant verbreitet und zählt weltweit über eine Milliarde Nutzer. Parallel dazu haben Suchmaschinen den Informationsmarkt erobert. Sie sind mittlerweile nicht mehr >nur< der zentrale Zugangsweg zum umfangreichen Informationsangebot des Internets, sondern haben darüber hinaus nachhaltige Wirkung auf die Medienbranche. Allein auf die Suchmaschine Google greifen monatlich ca. 380 Millionen Informationssuchende zu (vgl. Google 2006). Der Börsengang des SuchmaschinenAnbieters spiegelt die wachsende Bedeutung wider. Auch empirische Studien belegen, dass Suchmaschinen zunehmend in den Alltag integriert werden, eine Gatekeeper-Funktion wahrnehmen und dadurch die Informationsbeschaffung grundlegend ändern können. Da die zunehmende Verbreitung von Suchmaschinen mit einer Verdrängung alternativer Medienangebote einhergehen kann, hat diese Entwicklung auch das Interesse traditioneller Medienunternehmen geweckt. Allerdings wurden die Folgen für Medienanbieter bislang kaum erforscht. Mit unserer empirischen Studie wollen wir genau diese Forschungslücke verkleinern. Im Vordergrund stehen Fragestellungen zur Beurteilung und Anwendung von Suchmaschinen aus Nutzersicht und den sich daraus ergebenden Konsequenzen für traditionelle Medienanbieter. Konkret sollen erste Anhaltspunkte dafür gewonnen werden, welche Medien' Informationssuchende durch den Gebrauch von Suchmaschinen, ersetzen, welche sie ergänzend nutzen und warum. Aufgrund des relativ neuen Forschungsgebiets haben wir zur Untersuchung der Fragestellungen qualitative Forschungsmethoden eingesetzt, die einen umfassenden Überblick über das Untersuchungsgebiet schaffen. Es wurde ein Leitfaden konzipiert, anhand dessen den Befragten in einer trichterförmig angeordneten Reihenfolge mehrere offene Fragen gestellt wurden. Diese trichterförmige Anordnung - angefangen bei allgemeinen bis hin zu gezielten Fragen - stellte sicher, dass die Interviewpartner ihre persönliche Meinung uneingeschränkt äußern konnten und erlaubte gleichzeitig eine Quantifizierung der konkreten Antworten. Nach erfolgreichem Pretest wurde das Leitfadeninterview im Sommer 2005 mit 19 Personen durchgeführt. Unsere Stichprobe setzt sich aus acht Experten aus thematiknahen Berufen und elf Studenten unterschiedlicher Studienrichtungen zusammen. Zu den Experten zählen Unternehmensberater, Praktiker und Wissenschaftler aus dem Medienbereich. Die Studenten stammen aus den Fachrichtungen Informatik, BWL und Psychologie. Alle ca. 50-minütigen Interviews wurden mit einem Diktiergerät aufgezeichnet und wortwörtlich transkribiert. Anhand eines Excel-basierten Codeplans wurden die Aussagen diversen Haupt- und Unterkategorien zugeordnet und in ausgewählten Kategorien Häufigkeiten berechnet. Wie bei qualitativen Verfahren üblich, wurde auf Statement-Basis ausgewertet, sodass die Summe der Statements die Anzahl an Befragten übersteigen kann. Um den Aussagen Einzelner kein zu großes Gewicht zu geben, wurden wiederholte Aussagen zu einer Kategorie nur einfach gewertet. Die Ergebnisse der Befragung werden nachfolgend vorgestellt und eingeordnet.
  11. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.06
    0.05521027 = product of:
      0.11042054 = sum of:
        0.047878526 = weight(_text_:und in 2768) [ClassicSimilarity], result of:
          0.047878526 = score(doc=2768,freq=14.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.4535172 = fieldWeight in 2768, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.03995451 = weight(_text_:des in 2768) [ClassicSimilarity], result of:
          0.03995451 = score(doc=2768,freq=4.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.302893 = fieldWeight in 2768, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.022587512 = product of:
          0.045175023 = sum of:
            0.045175023 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
              0.045175023 = score(doc=2768,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.2708308 = fieldWeight in 2768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2768)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.2, S.61-74
  12. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.05
    0.049285937 = product of:
      0.098571874 = sum of:
        0.027144572 = weight(_text_:und in 3438) [ClassicSimilarity], result of:
          0.027144572 = score(doc=3438,freq=18.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.25712007 = fieldWeight in 3438, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.043175202 = weight(_text_:anwendung in 3438) [ClassicSimilarity], result of:
          0.043175202 = score(doc=3438,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.18721949 = fieldWeight in 3438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
        0.028252102 = weight(_text_:des in 3438) [ClassicSimilarity], result of:
          0.028252102 = score(doc=3438,freq=8.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.2141777 = fieldWeight in 3438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3438)
      0.5 = coord(3/6)
    
    Abstract
    Mittlerweile bieten alle größeren Suchmaschinen ein eigenes Suchwerkzeug für den Desktop an, mit dem sich Dateien, E-Mails, Kontakte usw. durchsuchen lassen. Die Tools werden kostenlos angeboten. Sie zeigen, dass die Suchmaschinen ihre Dienste in Zukunft weiter in das direkte Umfeld des Benutzers integrieren wollen.
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."
  13. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.05
    0.04924 = product of:
      0.09848 = sum of:
        0.025851974 = weight(_text_:und in 6566) [ClassicSimilarity], result of:
          0.025851974 = score(doc=6566,freq=2.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.24487628 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.04036015 = weight(_text_:des in 6566) [ClassicSimilarity], result of:
          0.04036015 = score(doc=6566,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.30596817 = fieldWeight in 6566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=6566)
        0.032267876 = product of:
          0.06453575 = sum of:
            0.06453575 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.06453575 = score(doc=6566,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Der deutsche Konkurrent, der Lieferant in Fernost oder der neue Partner für Nordamerika - sie alle sind vielleicht schon im Internet vertreten. Das Wissen um ihre Existenz und die Kenntnis ihrer Internet-Adresse ist wichtig, vielleicht sogar entscheidend im Wettbewerb. Aber wie finden?
    Content
    Beitrag zu den search engines des Internet
    Date
    22. 2.1997 19:50:29
  14. Heess, J.: Wahre Gewinner (2003) 0.05
    0.048254758 = product of:
      0.096509516 = sum of:
        0.031022368 = weight(_text_:und in 1246) [ClassicSimilarity], result of:
          0.031022368 = score(doc=1246,freq=18.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.29385152 = fieldWeight in 1246, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1246)
        0.04934309 = weight(_text_:anwendung in 1246) [ClassicSimilarity], result of:
          0.04934309 = score(doc=1246,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.21396513 = fieldWeight in 1246, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=1246)
        0.01614406 = weight(_text_:des in 1246) [ClassicSimilarity], result of:
          0.01614406 = score(doc=1246,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.12238726 = fieldWeight in 1246, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1246)
      0.5 = coord(3/6)
    
    Content
    "Das Leben ist ein einziges Entwederoder. Und oft genug fallen einem die täglichen Entscheidungen ganz schön schwer. Soll ich lieber den dunkelblauen oder doch den gestreiften Pullover anziehen? Kaufe ich Apfelsinen oder lieber Mandarinen, um die Vitaminversorgung zu gewährleisten? Bleibe ich Kundin bei AOL, oder soll ich es besser mal mit T-Online versuchen? Ein einziges Hin und Her ist das! Die binäre Verzweiflung des Menschen hat sich ein cleverer Internetdienstleister zunutze gemacht: Unter Anwendung der Suchmaschine Google bietet www.googlefight.com die Antwort auf alle Der-oder-das-Fragen und Diese-oder-jene-Ungewissheiten. Man gibt zwei Wörter in Suchfelder ein, und Googlefight sucht in altbekannter Google-Geschwindigkeit zuverlässig die Treffer im Netz zusammen Das Wort mit den meisten Punkten gewinnt.Jeder kann gegen jeden antreten. Die Stones verlieren mit 982 000 Erwähnungen im World Wide Web deutlich gegen die Beatles (2750000), und Marlene Dietrich deklassiert mit 144 000 Treffern Hildegard Knef, die nur auf 14000 kommt. Gerhard Schröder lost gegen George Bush mit über 2300000 Punkten Rückstand. Und Penny schlägt Aldi in dreifacher Millionenhöhe - o.k., das könnte vielleicht an der homonymen Natur von Penny liegen.Doch nicht nur zum Spaß sollte Googlefight benutzt werden. Dafür ist das Lein viel zu ernst. Und stellt uni - wie anfangs geschildert - regelmäßig vor knifflige Entscheidungsfragen. Wieso sollte man nicht einfach Googlefight zu seinem ständigen Berater machen? Schließlich hat die Kampfsuchmaschine das ganze Netz unter Kontrolle; da kann man sich drauf verlassen. Also gut: Beim Wettstreit zwischen AOL und T-Online siegt AOL mit Abstand, und die Apfelsinen entscheiden das Rennen um den besten Vitaminversorger souverän gegen die Mandarinen für sich. Bleibt die Kleiderfrage offen. Praktisch, Googlefight erspart das Beinevertreten vor dem Schrank. Trommelwirbel, and the winner is: der gestreifte Pullover. Genau 91 Treffer, der dunkelblaue kommt auf 34. Eindeutiges Ergebnis. Oder? Oder zerreißen sich etwa die Leute den Mund über Zebramuster? Ich greife zum blauen Stück. Manchmal sind vermeintliche Verlierer die wahren Gewinner."
  15. Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002) 0.05
    0.047954176 = product of:
      0.09590835 = sum of:
        0.02686616 = weight(_text_:und in 2107) [ClassicSimilarity], result of:
          0.02686616 = score(doc=2107,freq=24.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.2544829 = fieldWeight in 2107, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
        0.037007317 = weight(_text_:anwendung in 2107) [ClassicSimilarity], result of:
          0.037007317 = score(doc=2107,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.16047385 = fieldWeight in 2107, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
        0.032034874 = weight(_text_:des in 2107) [ClassicSimilarity], result of:
          0.032034874 = score(doc=2107,freq=14.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.24285468 = fieldWeight in 2107, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
      0.5 = coord(3/6)
    
    Footnote
    Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
    - Mangelnde Aktualität - Im Schlusskapitel des Buchs wird ein Ausblick auf technische Verbesserungen und Forschungsperspektiven, die sich aus der Untersuchung ergeben, dargestellt. Zu den Verbesserungsvorschlägen zählen unter anderem die Möglichkeit des Suchens mittels natürlichsprachlicher Anfragen, die Verbesserung des Rankings, das Vorschlagen von Suchbegriffen durch die Suchmaschine oder der Einsatz von Visualisierungstechniken. Einen Bedarf für weitere Forschungsarbeiten sieht der Autor in der Erhebung der Differenzen in der Spezifität der von Laien und Experten verwendeten Suchbegriffe. Während sich die vorliegende Untersuchung auf die formalen Aspekte der Gestaltung von Suchanfragen (Einsatz von Operatoren und so weiter) beschränkte, könnten weitere Untersuchungen somit auf deren inhaltliche Gestaltung erweitert werden. Zusammenfassend ist festzuhalten, dass die im vorliegenden Werk erzielten Ergebnisse leider doch recht mager sind. Dies mag damit zusammenhängen, dass die Dissertation bereits im Jahr 2000 abgeschlossen wurde und viele Feststellungen in Bezug auf das Nutzerverhalten mittlerweile als bekannt vorausgesetzt werden können. Hinzu kommt, dass die hier vorliegende Verlagsfassung der Arbeit nur marginal aktualisiert wurde. Ein einführendes Kapitel, das sich grundlegend mit der Websuche befasst, sowie die Schlussfolgerungen sind heute leider aufgrund der mangelnden Aktualität nahezu wertlos."
  16. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.05
    0.04557717 = product of:
      0.09115434 = sum of:
        0.05484032 = weight(_text_:und in 3423) [ClassicSimilarity], result of:
          0.05484032 = score(doc=3423,freq=36.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.51946104 = fieldWeight in 3423, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.020180074 = weight(_text_:des in 3423) [ClassicSimilarity], result of:
          0.020180074 = score(doc=3423,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.15298408 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.016133938 = product of:
          0.032267876 = sum of:
            0.032267876 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.032267876 = score(doc=3423,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.189-190
  17. Lewandowski, D.: Query understanding (2011) 0.04
    0.043675296 = product of:
      0.08735059 = sum of:
        0.029248169 = weight(_text_:und in 344) [ClassicSimilarity], result of:
          0.029248169 = score(doc=344,freq=4.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.27704588 = fieldWeight in 344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.03228812 = weight(_text_:des in 344) [ClassicSimilarity], result of:
          0.03228812 = score(doc=344,freq=2.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.24477452 = fieldWeight in 344, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=344)
        0.0258143 = product of:
          0.0516286 = sum of:
            0.0516286 = weight(_text_:22 in 344) [ClassicSimilarity], result of:
              0.0516286 = score(doc=344,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.30952093 = fieldWeight in 344, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=344)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
    Date
    18. 9.2018 18:22:18
  18. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.04
    0.0426429 = product of:
      0.0852858 = sum of:
        0.034198944 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.034198944 = score(doc=867,freq=14.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.034952916 = weight(_text_:des in 867) [ClassicSimilarity], result of:
          0.034952916 = score(doc=867,freq=6.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.2649762 = fieldWeight in 867, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.016133938 = product of:
          0.032267876 = sum of:
            0.032267876 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.032267876 = score(doc=867,freq=2.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
  19. Handreck, F.; Mönnich, M.W.: Google Scholar als Alternative zu wissenschaftlichen Fachdatenbanken (2008) 0.04
    0.042271715 = product of:
      0.12681514 = sum of:
        0.040464744 = weight(_text_:und in 3626) [ClassicSimilarity], result of:
          0.040464744 = score(doc=3626,freq=10.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.38329202 = fieldWeight in 3626, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3626)
        0.086350404 = weight(_text_:anwendung in 3626) [ClassicSimilarity], result of:
          0.086350404 = score(doc=3626,freq=2.0), product of:
            0.23061275 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.047632713 = queryNorm
            0.37443897 = fieldWeight in 3626, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3626)
      0.33333334 = coord(2/6)
    
    Abstract
    Seit dem Start von Google Scholar als einem neuartigen Suchdienst für wissenschaftliche Literatur (in der englischen Version im November 2004 und in der deutschen Version im April 2006), sorgt dieser Dienst für Gesprächsstoff unter Fachleuten. In diesem Beitrag wird nicht untersucht, wie vollständig Zeitschriftenlisten von Fachdatenbanken oder Verlagen und die Indexierung von Open Access Hochschulschriftenservern durch Google Scholar abgedeckt werden und auch das Pageranking und die Indexierungshäufigkeit von Google Scholar stehen nicht im Fokus, sondern es geht um die praktische Anwendung dieses Suchdienstes bei wissenschaftlichen Literaturrecherchen. Wie müssen Suchanfragen formuliert werden, um thematisch passende Ergebnisse zu bekommen und wie viele relevante Ergebnisse gibt es innerhalb dieser Treffermengen.
  20. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.04
    0.041910037 = product of:
      0.083820075 = sum of:
        0.03380584 = weight(_text_:und in 3080) [ClassicSimilarity], result of:
          0.03380584 = score(doc=3080,freq=38.0), product of:
            0.105571575 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047632713 = queryNorm
            0.32021725 = fieldWeight in 3080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.036324136 = weight(_text_:des in 3080) [ClassicSimilarity], result of:
          0.036324136 = score(doc=3080,freq=18.0), product of:
            0.13190964 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.047632713 = queryNorm
            0.27537134 = fieldWeight in 3080, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.013690101 = product of:
          0.027380202 = sum of:
            0.027380202 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.027380202 = score(doc=3080,freq=4.0), product of:
                0.16680165 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047632713 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."

Years

Languages

  • d 479
  • e 115
  • f 4
  • sp 2
  • nl 1
  • More… Less…

Types

  • a 490
  • el 60
  • m 59
  • x 13
  • s 9
  • r 3
  • p 2
  • More… Less…

Subjects

Classifications