Search (386 results, page 1 of 20)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.44
    0.43814868 = product of:
      0.7667602 = sum of:
        0.034518216 = product of:
          0.17259108 = sum of:
            0.17259108 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.17259108 = score(doc=2514,freq=2.0), product of:
                0.3070917 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03622214 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.2 = coord(1/5)
        0.24408065 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.24408065 = score(doc=2514,freq=4.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.24408065 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.24408065 = score(doc=2514,freq=4.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.24408065 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.24408065 = score(doc=2514,freq=4.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5714286 = coord(4/7)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. jo: Gepardenforellen : Dicke Fische (2005) 0.03
    0.028474092 = product of:
      0.19931863 = sum of:
        0.19931863 = weight(_text_:abfrage in 5169) [ClassicSimilarity], result of:
          0.19931863 = score(doc=5169,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.6974039 = fieldWeight in 5169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0625 = fieldNorm(doc=5169)
      0.14285715 = coord(1/7)
    
    Abstract
    Bis zum 14. April dieses Jahres war die Gattung der Hommingberger Gepardenforelle gänzlich unbekannt. Einen Tag später erschienen die c't 9/05 und eine News-Meldung auf heise online, die zum c't-Suchmaschinenoptimierungswettbewerb aufriefen. Aufgabe: Webseiten zu veröffentlichen, die in den Trefferlisten von Google.de, Yahoo.de, MSN.de und Seekport.de für die Abfrage Hommingberger Gepardenforelle Spitzenpositionen belegen. Nach einer Bestandsaufnahme am 15. Mai ist der heutige 15. Dezember der zweite Stichtag.
  3. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.03
    0.02650278 = product of:
      0.09275973 = sum of:
        0.0055578267 = product of:
          0.027789133 = sum of:
            0.027789133 = weight(_text_:system in 5912) [ClassicSimilarity], result of:
              0.027789133 = score(doc=5912,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.2435858 = fieldWeight in 5912, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5912)
          0.2 = coord(1/5)
        0.0872019 = weight(_text_:abfrage in 5912) [ClassicSimilarity], result of:
          0.0872019 = score(doc=5912,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.3051142 = fieldWeight in 5912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.2857143 = coord(2/7)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  4. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.02
    0.023458825 = product of:
      0.08210588 = sum of:
        0.074744485 = weight(_text_:abfrage in 5177) [ClassicSimilarity], result of:
          0.074744485 = score(doc=5177,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.26152647 = fieldWeight in 5177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
        0.0073614 = product of:
          0.0147228 = sum of:
            0.0147228 = weight(_text_:22 in 5177) [ClassicSimilarity], result of:
              0.0147228 = score(doc=5177,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.116070345 = fieldWeight in 5177, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5177)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Content
    Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
    Date
    3. 5.1997 8:44:22
  5. Mayr, P.; Walter, A.-K.: Abdeckung und Aktualität des Suchdienstes Google Scholar (2006) 0.02
    0.021355567 = product of:
      0.14948897 = sum of:
        0.14948897 = weight(_text_:abfrage in 5131) [ClassicSimilarity], result of:
          0.14948897 = score(doc=5131,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.52305293 = fieldWeight in 5131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.046875 = fieldNorm(doc=5131)
      0.14285715 = coord(1/7)
    
    Abstract
    Der Beitrag widmet sich dem neuen Google-Suchdienst Google Scholar. Die Suchmaschine, die ausschließlich wissenschaftliche Dokumente durchsuchen soll, wird mit ihren wichtigsten Funktionen beschrieben und anschließend einem empirischen Test unterzogen. Die durchgeführte Studie basiert auf drei Zeitschriftenlisten: Zeitschriften von Thomson Scientific, Open AccessZeitschriften des Verzeichnisses DOAJ und in der Fachdatenbank SOLIS ausgewertete sozialwissenschaftliche Zeitschriften. Die Abdeckung dieser Zeitschriften durch Google Scholar wurde per Abfrage der Zeitschriftentitel überprüft. Die Studie zeigt Defizite in der Abdeckung und Aktualität des Google Scholarlndex. Weiterhin macht die Studie deutlich, wer die wichtigsten Datenlieferanten für den neuen Suchdienst sind und welche wissenschaftlichen Informationsquellen im Index repräsentiert sind. Die Pluspunkte von Google Scholar liegen in seiner Einfachheit, seiner Suchgeschwindigkeit und letztendlich seiner Kostenfreiheit. Die Recherche in Fachdatenbanken kann Google Scholar trotz sichtbarer Potenziale (z. B. Zitationsanalyse) aber heute aufgrund mangelnder fachlicher Abdeckung und Transparenz nicht ersetzen.
  6. Karzaunikat, S.: Google zugemüllt : Spam überschwemmt die Suchergebnisse (2003) 0.02
    0.020134224 = product of:
      0.14093956 = sum of:
        0.14093956 = weight(_text_:abfrage in 1963) [ClassicSimilarity], result of:
          0.14093956 = score(doc=1963,freq=4.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.49313906 = fieldWeight in 1963, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03125 = fieldNorm(doc=1963)
      0.14285715 = coord(1/7)
    
    Content
    Die Suche mit Google, früher meist auf Anhieb erfolgreich, bereitet in letzter Zeit zunehmend Frust. Sucht man zum Beispiel mit den Begriffen "kfz kaufen lüneburg" nach Autohändlern in der Heidestadt, erhält man als ersten Treffer eine Site, die laut Inhaltsangabe in der Trefferliste die Begriffe "Eu-Auto Neuwagenmarkt kaufen Reimport-Auto Fahrzeug" enthält. Als Adresse gibt die Suchmaschine eu-reimport-auto.department1.de/kaufen/ an. Doch dieser Treffer passt nur scheinbar gut zu der Anfrage. Klickt man nämlich auf den Link, landet man nach mehreren Weiterleitungen auf verschiedenen anderen Sites, meistens auf einer allgemeinen Startseite von eBay, http://pages.ebay. de, auf der man dann vergeblich nach "lüneburg" und "kfz" Ausschau hält. Sucht man mit der Abfrage "diascanner test" nach Diascanner-Vergleichen, dann führt der erste Treffer zur Ergebnisseite einer anderen Suchmaschine namens Biveroo mit nutzlosen Verweisen, obwohl der Link angeblich auf die Site www.sisira.de führen soll. Die zweite Site in der Trefferliste listet unter der Domain diascanner.org eBay-Auktionen und Links des Pay-forPerformance-Anbieters Espotting - also gekaufte Links, Werbung. Testberichte? Auch hier Fehlanzeige. Insgesamt finden sich unter den ersten zehn Verweisen nur drei relevante. Surfer erhalten bei Google-Recherchen im Umfeld von Produkten und Dienstleistungen immer mehr unbrauchbare oder in anderer Weise ungewöhnliche Treffer: Webseiten, die mit der Abfrage kaum etwas zu tun haben, zum Teil nicht einmal den Suchbegriff enthalten, wirre Linksammlungen oder gar Ergebnisseiten anderer Suchmaschinen. Mitunter landet man nach dem Klick auch bei einer anderen Adresse, als Googie in seiner Ergebnisliste angibt. Immer seltener finden sich neutrale Informationen; statt dessen landet der Surfer immer häufiger in irgendwelchen Online-Shops oder auf E-Commerce-Portalen. Verseuchte Ergebnisse Die Verseuchung der GoogleSuchergebnisse durch aufdringliche Geschäftemacherei ist findigen Tricksern zu verdanken. Sie haben Wege gefunden, bei immer mehr Suchanfragen ihre Links unter den ersten Treffern zu platzieren. So fällt nun auch Google einer Entwicklung anheim, die viele andere Suchdienste bereits vor Jahren heimgesucht und weitgehend unbrauchbar gemacht hat. Dabei galt doch der geniale Google-Algorithmus zur Bestimmung der Trefferrelevanz ("Ranking") lange Zeit als immun gegen Manipulationsversuche. Der Suchmaschinenprimus zieht nicht nur die in den HTMLSeiten enthaltenen Schlüsselwörter heran, wie es die Suchdienste in der Vor-Google-Ära taten. Stattdessen bestimmen bei Google vor allem Verweise fremder Seiten und damit die Wertschätzung durch andere Webmaster darüber, welche Position eine Website in der Trefferliste erhält. Aber nicht nur die bloße Anzahl der Links, sondern auch der Rang der verweisenden Website fließt in die Bewertung ein. Daraus errechnet Google den so genannten Page Rank, benannt übrigens nach dem Erfinder Larry Page [11. Jedermann kann sich mit der erweiterten Version der Google-Toolbar für den Internet Explorer den Page Rank beliebiger Seiten anzeigen lassen.
  7. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.02
    0.018053375 = product of:
      0.06318681 = sum of:
        0.027604982 = product of:
          0.069012456 = sum of:
            0.040941194 = weight(_text_:retrieval in 4063) [ClassicSimilarity], result of:
              0.040941194 = score(doc=4063,freq=10.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.37365708 = fieldWeight in 4063, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
            0.028071264 = weight(_text_:system in 4063) [ClassicSimilarity], result of:
              0.028071264 = score(doc=4063,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.24605882 = fieldWeight in 4063, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.4 = coord(2/5)
        0.03558183 = product of:
          0.07116366 = sum of:
            0.07116366 = weight(_text_:zugriff in 4063) [ClassicSimilarity], result of:
              0.07116366 = score(doc=4063,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.32944247 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    RSWK
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
    Subject
    Suchmaschine / Semantic Web / Information Retrieval
    Suchmaschine / Information Retrieval / Ranking / Datenstruktur / Kontextbezogenes System
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  8. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.01585686 = product of:
      0.055499006 = sum of:
        0.005178697 = product of:
          0.025893483 = sum of:
            0.025893483 = weight(_text_:retrieval in 5742) [ClassicSimilarity], result of:
              0.025893483 = score(doc=5742,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23632148 = fieldWeight in 5742, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5742)
          0.2 = coord(1/5)
        0.05032031 = product of:
          0.10064062 = sum of:
            0.10064062 = weight(_text_:zugriff in 5742) [ClassicSimilarity], result of:
              0.10064062 = score(doc=5742,freq=4.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.46590203 = fieldWeight in 5742, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5742)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  9. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.02
    0.015639218 = product of:
      0.05473726 = sum of:
        0.049829658 = weight(_text_:abfrage in 3684) [ClassicSimilarity], result of:
          0.049829658 = score(doc=3684,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.17435098 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0049076 = product of:
          0.0098152 = sum of:
            0.0098152 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.0098152 = score(doc=3684,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Date
    22. 6.2005 9:52:00
  10. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.01
    0.014237046 = product of:
      0.099659316 = sum of:
        0.099659316 = weight(_text_:abfrage in 1719) [ClassicSimilarity], result of:
          0.099659316 = score(doc=1719,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.34870195 = fieldWeight in 1719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  11. Hillenbrand, T.: Googles Zehn Gebote (2005) 0.01
    0.0124574145 = product of:
      0.0872019 = sum of:
        0.0872019 = weight(_text_:abfrage in 4314) [ClassicSimilarity], result of:
          0.0872019 = score(doc=4314,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.3051142 = fieldWeight in 4314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4314)
      0.14285715 = coord(1/7)
    
    Content
    "Und Mo der User irrte einsam durch die kalte Betonwüste und er wusste nicht wo Norden noch Süden war. "Weh mir", rief er, "ausgezogen war ich, den Tempel des Heiligen Saturn zu finden, auf dass mir seine Hohepriester einige jener kleinen Silberscheiben verkauften, zu wohlfeilen Preisen. Doch nun bin ich ganz verloren und weiß nicht, wohin ich meine Schritte lenken soll." Es begab sich aber, dass Mo an einer Taverne vorbeikam. "Preiset den Herrn", rief er aus, "diese bescheidene Tränke vermag mir nicht nur ein wohlschmeckend Heißgebräu mit Vanillearoma zu bereiten. Vermittels ihrer vermag ich auch die Götter des Internet um Rat anzuflehen." Und so öffnete er sein Ränzel, entnahm sein gesegnetes iBuch von Antiochia und klinkte sich in den Hotspot des Kaffeehökers ein. Alsdann betete Mo zu Google. Und er rief: "O allwissender Google. Ich suche den Tempel des edlen Saturn oder des erhabenen Conrad, auf dass ich einige Silberlinge zur Archivierung meiner Schriften erwerben könnte." Und so tippte Mo die Wörter "DVD Berlin" in sein magisches Büchlein. Und als er die Return-Taste betätigte, da vernahm er in der Ferne ein Donnergrollen und der Himmel verfinsterte sich. Und ein Blitz zuckte vom Himmel und fuhr in Mos treues iBuch und der Akku fing Feuer. Und es war viel Wehklagen und Geschrei in der Taverne. Diese Zeichen des Herrn trieben die Furcht in Mos Herz und er fiel vor dem brennenden Zauberbüchlein auf die Knie. Und plötzlich wurde er in den lodernden Flammen des mächtigen Google Antlitz' gewahr. Und jener sprach: "Mo, du Idiot! Du willst der Prophet der Suchmaschinen sein, aber du weißt ja nicht mal, wie man eine vernünftige Abfrage formuliert!" Mo warf sich zu Boden: "Allmächtiger, ich - ...". "Klappe, Mo!", zischte das iBuch. "Täglich wollen die Adepten Antworten von mir, doch kaum einer ist in der Lage, seine Fragen richtig zu stellen. Das nervt höllisch. Empfange nunmehr meine zehn Gebote der Internet-Suche. Und künde den anderen Usern davon immerdar." Und er sprach: Und Mo hob die Hände zum Himmel und rief: "Hosianna! Lob und Ehre sei Dir, O mächtiger und preisenswerter Gott der Suche. Umgehend will ich Deine Gebote meißeln in feinsten Marmor, auf dass ein jeder sie schaue!" Und ein weiteres grollendes Seufzen erschütterte die Taverne. "Marmor? Du hast es wahrlich nicht mit Löffeln gefressen, Mo. Poste es irgendwo im Netz, das geht viel schneller." Und so geschah es."
  12. Ardo, A.; Lundberg, S.: ¬A regional distributed WWW search and indexing service : the DESIRE way (1998) 0.01
    0.012161928 = product of:
      0.042566746 = sum of:
        0.027843947 = product of:
          0.069609866 = sum of:
            0.02197135 = weight(_text_:retrieval in 4190) [ClassicSimilarity], result of:
              0.02197135 = score(doc=4190,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 4190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4190)
            0.047638513 = weight(_text_:system in 4190) [ClassicSimilarity], result of:
              0.047638513 = score(doc=4190,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.41757566 = fieldWeight in 4190, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4190)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 4190) [ClassicSimilarity], result of:
              0.0294456 = score(doc=4190,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 4190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4190)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Creates an open, metadata aware system for distributed, collaborative WWW indexing. The system has 3 main components: a harvester (for collecting information), a database (for making the collection searchable), and a user interface (for making the information available). all components can be distributed across networked computers, thus supporting scalability. The system is metadata aware and thus allows searches on several fields including title, document author and URL. Nordic Web Index (NWI) is an application using this system to create a regional Nordic Web-indexing service. NWI is built using 5 collaborating service points within the Nordic countries. The NWI databases can be used to build additional services
    Date
    1. 8.1996 22:08:06
    Theme
    Klassifikationssysteme im Online-Retrieval
  13. Garcés, P.J.; Olivas, J.A.; Romero, F.P.: Concept-matching IR systems versus word-matching information retrieval systems : considering fuzzy interrelations for indexing Web pages (2006) 0.01
    0.011666763 = product of:
      0.040833667 = sum of:
        0.028564667 = product of:
          0.07141167 = sum of:
            0.031712912 = weight(_text_:retrieval in 5288) [ClassicSimilarity], result of:
              0.031712912 = score(doc=5288,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.28943354 = fieldWeight in 5288, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5288)
            0.03969876 = weight(_text_:system in 5288) [ClassicSimilarity], result of:
              0.03969876 = score(doc=5288,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3479797 = fieldWeight in 5288, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5288)
          0.4 = coord(2/5)
        0.0122690005 = product of:
          0.024538001 = sum of:
            0.024538001 = weight(_text_:22 in 5288) [ClassicSimilarity], result of:
              0.024538001 = score(doc=5288,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.19345059 = fieldWeight in 5288, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5288)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This article presents a semantic-based Web retrieval system that is capable of retrieving the Web pages that are conceptually related to the implicit concepts of the query. The concept of concept is managed from a fuzzy point of view by means of semantic areas. In this context, the proposed system improves most search engines that are based on matching words. The key of the system is to use a new version of the Fuzzy Interrelations and Synonymy-Based Concept Representation Model (FIS-CRM) to extract and represent the concepts contained in both the Web pages and the user query. This model, which was integrated into other tools such as the Fuzzy Interrelations and Synonymy based Searcher (FISS) metasearcher and the fz-mail system, considers the fuzzy synonymy and the fuzzy generality interrelations as a means of representing word interrelations (stored in a fuzzy synonymy dictionary and ontologies). The new version of the model, which is based on the study of the cooccurrences of synonyms, integrates a soft method for disambiguating word senses. This method also considers the context of the word to be disambiguated and the thematic ontologies and sets of synonyms stored in the dictionary.
    Date
    22. 7.2006 17:14:12
    Footnote
    Beitrag in einer Special Topic Section on Soft Approaches to Information Retrieval and Information Access on the Web
  14. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.01
    0.011645866 = product of:
      0.04076053 = sum of:
        0.005178697 = product of:
          0.025893483 = sum of:
            0.025893483 = weight(_text_:retrieval in 386) [ClassicSimilarity], result of:
              0.025893483 = score(doc=386,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23632148 = fieldWeight in 386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.2 = coord(1/5)
        0.03558183 = product of:
          0.07116366 = sum of:
            0.07116366 = weight(_text_:zugriff in 386) [ClassicSimilarity], result of:
              0.07116366 = score(doc=386,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.32944247 = fieldWeight in 386, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
  15. Chen, L.-C.: Next generation search engine for the result clustering technology (2012) 0.01
    0.010567299 = product of:
      0.036985546 = sum of:
        0.022262746 = product of:
          0.055656865 = sum of:
            0.02197135 = weight(_text_:retrieval in 105) [ClassicSimilarity], result of:
              0.02197135 = score(doc=105,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20052543 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=105)
            0.033685513 = weight(_text_:system in 105) [ClassicSimilarity], result of:
              0.033685513 = score(doc=105,freq=4.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.29527056 = fieldWeight in 105, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.046875 = fieldNorm(doc=105)
          0.4 = coord(2/5)
        0.0147228 = product of:
          0.0294456 = sum of:
            0.0294456 = weight(_text_:22 in 105) [ClassicSimilarity], result of:
              0.0294456 = score(doc=105,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23214069 = fieldWeight in 105, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=105)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Result clustering has recently attracted a lot of attention to provide the users with a succinct overview of relevant search results than traditional search engines. This chapter proposes a mixed clustering method to organize all returned search results into a hierarchical tree structure. The clustering method accomplishes two main tasks, one is label construction and the other is tree building. This chapter uses precision to measure the quality of clustering results. According to the results of experiments, the author preliminarily concluded that the performance of the system is better than many other well-known commercial and academic systems. This chapter makes several contributions. First, it presents a high performance system based on the clustering method. Second, it develops a divisive hierarchical clustering algorithm to organize all returned snippets into hierarchical tree structure. Third, it performs a wide range of experimental analyses to show that almost all commercial systems are significantly better than most current academic systems.
    Date
    17. 4.2012 15:22:11
    Source
    Next generation search engines: advanced models for information retrieval. Eds.: C. Jouis, u.a
  16. Behrens, D.: Test: Datei-Newsserver (2004) 0.01
    0.00894133 = product of:
      0.06258931 = sum of:
        0.06258931 = sum of:
          0.05032031 = weight(_text_:zugriff in 2139) [ClassicSimilarity], result of:
            0.05032031 = score(doc=2139,freq=4.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.23295102 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.0122690005 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
            0.0122690005 = score(doc=2139,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.09672529 = fieldWeight in 2139, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
      0.14285715 = coord(1/7)
    
    Content
    "Tauschbörsen sind nur eine Möglichkeit, im Internet interessante Dateien zu finden. Es gibt auch andere Wege, zum Beispiel das Usenet. Es besteht aus mehreren tausend Newsservern weltweit, die ihren Datenbestand ständig miteinander abgleichen. Sendet ein Anwender eine Datei an einen Newsserver, steht sie nach ein paar Stunden auf allen Servern zur Verfügung. - Vorteile gegenüber Tauschbörsen - Gegenüber Tauschbörsen haben Newsserver einige Vorteile. Die Übertragungsdaten beim Download ,sind meist um einiges höher und reizen sogar DSL-Anschlüsse mit 1500 MBit/s voll aus. Bei den meisten Newsserver-Anbietern wird Anonymität groß geschrieben. Sie protokollieren nicht mit, welche Dateien Sie herunterladen. Während Sie bei Tauschbörsen wissen müssen, wonach Sie suchen, können Sie bei Newsservern im Angebot stöbern. Zu jedem Thema gibt es eine bestimmte Rubrik, Newsgroup genannt. Egal, ob Sie auf der Suche nach Bildern, verschollener Software, Filmen oder MP3-Dateien mit Musik aus den 70er und 80er Jahren sind, Sie finden für jedes Interesse ein eigenes Forum. - Der Ursprung von Datei-Newsgroups - Newsserver gibt es schon seit den Anfängen des Internets. Sie waren ursprünglich zum reinen Meinungs- und Gedankenaustausch gedacht. Irgendwann kamen Anwender auf die Idee, spezielle Newsgroups für den Austausch von Dateien einzurichten - sogenannte Binärgruppen. Je mehr solcher Gruppen es gab und je mehr Anwender sie nutzten, desto kostspieliger wurde die Angelegenheit für die Betreiber der Newsserver. Sie mussten nicht nur in zusätzliche Speicherkapazität für die Megabyte-schweren Nachrichten investieren, sondern auch den erhöhten Datenverkehr bezahlen, der durch ihre Leitungen fließt. Viele InternetProvider bieten daher heute keine Binärgruppen mehr auf ihren Servern an. T-Online, AOL und viele weitere Internet-Provider stellen für ihre Kunden Newsserver bereit, die lediglich Text-Newsgroups führen. Auch das Newsgroup-Archiv von Google (http://groups.google.de) bietet keinen Zugriff auf Binärinhalte.
    - Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  17. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.01
    0.008898153 = product of:
      0.06228707 = sum of:
        0.06228707 = weight(_text_:abfrage in 5134) [ClassicSimilarity], result of:
          0.06228707 = score(doc=5134,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.21793872 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
  18. BWI: Suchen mit Microsoft : MSN Suche (2005) 0.01
    0.00813299 = product of:
      0.05693093 = sum of:
        0.05693093 = product of:
          0.11386186 = sum of:
            0.11386186 = weight(_text_:zugriff in 3317) [ClassicSimilarity], result of:
              0.11386186 = score(doc=3317,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.52710795 = fieldWeight in 3317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3317)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Content
    "Ab sofort steht Microsofts neu entwickelte Suchmaschine in der finalen Version in 24 Ländern und zehn Sprachen zur Verfügung: Die MSN-Suche soll auf einem Index mit mehr als fünf Milliarden Webdokumenten basieren. Zum Vergleich: Suchmaschinen-Marktführer Google greift auf rund 8 Millionen Webdokumente zu. MSN Search umfasst neben einer News- auch die Encarta-Suche. Damit ist ein kostenfreier Zugriff auf die Enzyklopädie Encarta Online möglich. Die Herkunft der Ergebnisse soll sich im Suchassistenten nach Land/Region, Sprache, Seite/Domain sowie Ergebnisreihenfolge eingrenzen lassen."
  19. Peereboom, M.: DutchESS : Dutch Electronic Subject Service - a Dutch national collaborative effort (2000) 0.01
    0.007976091 = product of:
      0.027916316 = sum of:
        0.008285915 = product of:
          0.04142957 = sum of:
            0.04142957 = weight(_text_:retrieval in 4869) [ClassicSimilarity], result of:
              0.04142957 = score(doc=4869,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.37811437 = fieldWeight in 4869, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.2 = coord(1/5)
        0.0196304 = product of:
          0.0392608 = sum of:
            0.0392608 = weight(_text_:22 in 4869) [ClassicSimilarity], result of:
              0.0392608 = score(doc=4869,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.30952093 = fieldWeight in 4869, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4869)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This article gives an overview of the design and organisation of DutchESS, a Dutch information subject gateway created as a national collaborative effort of the National Library and a number of academic libraries. The combined centralised and distributed model of DutchESS is discussed, as well as its selection policy, its metadata format, classification scheme and retrieval options. Also some options for future collaboration on an international level are explored
    Date
    22. 6.2002 19:39:23
    Theme
    Klassifikationssysteme im Online-Retrieval
  20. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.01
    0.007873362 = product of:
      0.027556766 = sum of:
        0.013324033 = product of:
          0.03331008 = sum of:
            0.02537033 = weight(_text_:retrieval in 312) [ClassicSimilarity], result of:
              0.02537033 = score(doc=312,freq=24.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23154683 = fieldWeight in 312, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
            0.007939752 = weight(_text_:system in 312) [ClassicSimilarity], result of:
              0.007939752 = score(doc=312,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.06959594 = fieldWeight in 312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
          0.4 = coord(2/5)
        0.014232732 = product of:
          0.028465465 = sum of:
            0.028465465 = weight(_text_:zugriff in 312) [ClassicSimilarity], result of:
              0.028465465 = score(doc=312,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13177699 = fieldWeight in 312, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.015625 = fieldNorm(doc=312)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Footnote
    Das zweite Kapitel ("A Brief History of Wayfinding") beschreibt, wie Menschen sich in Umgebungen zurechtfinden. Dies ist insofern interessant, als hier nicht erst bei Informationssystemen oder dem WWW begonnen wird, sondern allgemeine Erkenntnisse beispielsweise über die Orientierung in natürlichen Umgebungen präsentiert werden. Viele typische Verhaltensweisen der Nutzer von Informationssystemen können so erklärt werden. So interessant dieses Thema allerdings ist, wirkt das Kapitel leider doch nur wie eine Zusammenstellung von Informationen aus zweiter Hand. Offensichtlich ist, dass Morville nicht selbst an diesen Themen geforscht hat, sondern die Ergebnisse (wenn auch auf ansprechende Weise) zusammengeschrieben hat. Dieser Eindruck bestätigt sich auch in weiteren Kapiteln: Ein flüssig geschriebener Text, der es jedoch an einigen Stellen an Substanz fehlen lässt. Kapitel drei, "Information Interaction" beginnt mit einem Rückgriff auf Calvin Mooers zentrale Aussage aus dem Jahre 1959: "An information retrieval system will tend not to be used whenever it is more painful and troublesome for a customer to have information than for him not to have it." In der Tat sollte man sich dies bei der Erstellung von Informationssystemen immer vergegenwärtigen; die Reihe der Systeme, die gerade an dieser Hürde gescheitert sind, ist lang. Das weitere Kapitel führt in einige zentrale Konzepte der Informationswissenschaft (Definition des Begriffs Information, Erläuterung des Information Retrieval, Wissensrepräsentation, Information Seeking Behaviour) ein, allerdings ohne jeden Anspruch auf Vollständigkeit. Es wirkt vielmehr so, dass der Autor sich die gerade für sein Anliegen passenden Konzepte auswählt und konkurrierende Ansätze beiseite lässt. Nur ein Beispiel: Im Abschnitt "Information Interaction" wird relativ ausführlich das Konzept des Berrypicking nach Marcia J. Bates präsentiert, allerdings wird es geradezu als exklusiv verkauft, was es natürlich bei weitem nicht ist. Natürlich kann es nicht Aufgabe dieses Buchs sein, einen vollständigen Überblick über alle Theorien des menschlichen Suchverhaltens zu geben (dies ist an anderer Stelle vorbildlich geleistet worden'), aber doch wenigstens der Hinweis auf einige zentrale Ansätze wäre angebracht gewesen. Spätestens in diesem Kapitel wird klar, dass das Buch sich definitiv nicht an Informationswissenschaftler wendet, die auf der einen Seite mit den grundlegenden Themen vertraut sein dürften, andererseits ein wenig mehr Tiefgang erwarten würden. Also stellt sich die Frage - und diese ist zentral für die Bewertung des gesamten Werks.
    Für wen wurde dieses Buch eigentlich geschrieben? Der Verlag, sonst für eher praktisch orientierte Computerbücher bekannt, ordnet es auf dem Umschlag den Bereichen "Marketing" sowie "Technology & Society" zu. Für letztere Zielgruppe ist es aber sicher weniger geeignet, da auch der gesellschaftliche Hintergrund zu dünn ist. So bleibt der Bereich Marketing oder doch eher die Zielgruppe derjenigen, die ohne fachbezogenes Studium in den Bereich Informationssysteme bzw. Informationsarchitektur "hineingeschlittert" sind. Für diese mag auch das Kapitel über "Information Interaction" (bedingt) geeignet sein, bietet es doch zumindest einen gut lesbaren Einblick in einige zentrale Punkte. Das vierte Kapitel ("Intertwingled") beschreibt den Zugriff auf Informationen mittels verschiedener Erdgeräte in unterschiedlichen Kontexten. Es geht hier neben neuen Ansätzen des Wegefindens, um lokalisierbare Objekte und Kleidung, in die Informationstechnologie mit eingebaut ist. Dabei handelt es sich um einen guten (und vor allem beispielreichen) Überblick der aufkommenden Technologien. Kapitel s behandelt die Integration von Push- und PullAnsätzen, wobei die zentrale Aussage lautet, dass beide Ansätze immer mehr zusammenwachsen und die Entscheidung für den einen oder den anderen Ansatz vom Nutzer spontan gemäß seinen Informationsbedürfnissen getroffen wird. In diesem Kapitel wird auch das Thema Personalisierung abgehandelt und auf die bei der Personalisierung entstehenden Probleme eingegangen. Lange Zeit wurde Personalisierung schlicht als ein Verfahren gesehen, aus einmal erfassten Nutzerdaten Empfehlungen abzuleiten. Dass dies nicht problemlos möglich ist, erläutert Morville an einigen Punkten. Etwas bedauerlich ist hier, dass die Erläuterungen sehr knapp gehalten sind. Gerade zu diesem interessanten Thema hätte man gerne mehr Details erfahren.
    LCSH
    Information storage and retrieval systems
    RSWK
    Information Retrieval (GBV)
    Information Retrieval / Ubiquitous Computing (GBV)
    Information Retrieval / Datenbanksystem / Suchmaschine (GBV)
    Information Retrieval / Datenbanksystem (BVB)
    Subject
    Information Retrieval (GBV)
    Information Retrieval / Ubiquitous Computing (GBV)
    Information Retrieval / Datenbanksystem / Suchmaschine (GBV)
    Information Retrieval / Datenbanksystem (BVB)
    Information storage and retrieval systems

Years

Languages

  • e 221
  • d 156
  • sp 3
  • f 2
  • nl 2
  • ja 1
  • More… Less…

Types

  • a 330
  • el 35
  • m 25
  • x 7
  • s 5
  • p 2
  • r 2
  • More… Less…

Subjects