Search (151 results, page 1 of 8)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.26
    0.2575207 = product of:
      0.5150414 = sum of:
        0.05429901 = product of:
          0.16289704 = sum of:
            0.16289704 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.16289704 = score(doc=2514,freq=2.0), product of:
                0.28984308 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.034187626 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.23037119 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23037119 = score(doc=2514,freq=4.0), product of:
            0.28984308 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.034187626 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.23037119 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.23037119 = score(doc=2514,freq=4.0), product of:
            0.28984308 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.034187626 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Hastik, C.; Schuster, A.; Knauerhase, A.: Wissenschaftliche Suchmaschinen : Usability Evaluation und Betrachtung des Suchverhaltens potentieller Nutzer (2009) 0.04
    0.036541983 = product of:
      0.10962595 = sum of:
        0.098818064 = weight(_text_:darmstadt in 2768) [ClassicSimilarity], result of:
          0.098818064 = score(doc=2768,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.47280845 = fieldWeight in 2768, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2768)
        0.010807887 = product of:
          0.03242366 = sum of:
            0.03242366 = weight(_text_:22 in 2768) [ClassicSimilarity], result of:
              0.03242366 = score(doc=2768,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.2708308 = fieldWeight in 2768, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2768)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Suchmaschinen haben es nicht leicht in einer "Amazoogle" gestalteten Welt. Dabei ist nicht nur die Einfachheit der Benutzerschnittstelle d.h. die Umsetzung von Usability-Anforderungen entscheidend für den Erfolg, sondern ebenso die Qualität der Suchergebnisse. Im Rahmen des Masterprojektes "Wissenschaftliche Suchmaschinen" an der Hochschule Darmstadt werden benutzerspezifische Bedürfnisse, Anforderungen und Aspekte der Wahrnehmung in Relation zum individuellen Informationssuchverhalten aufgerollt und methodisch evaluiert. Es wird der Fragestellung nachgegangen, was die Informationssuche auszeichnet und welche Rolle die Informationskompetenz der Nutzer in diesem Rahmen spielt. Anschließend werden die Ergebnisse detailliert skizziert, analysiert und daraus Rückschlüsse auf die zielgruppenspezifischen Anforderungen und Bedürfnisse hinsichtlich der Gestaltung von wissenschaftlichen Suchmaschinen gezogen.
    Date
    23. 3.2009 14:49:22
  3. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.02
    0.021680262 = product of:
      0.13008156 = sum of:
        0.13008156 = weight(_text_:kongress in 2097) [ClassicSimilarity], result of:
          0.13008156 = score(doc=2097,freq=2.0), product of:
            0.22430804 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.034187626 = queryNorm
            0.57992375 = fieldWeight in 2097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0625 = fieldNorm(doc=2097)
      0.16666667 = coord(1/6)
    
  4. Schröder, C.: Textschnipsel des Weltwissens : Verlagen bereitet die Digitalisierung von Büchern Sorge, Forscher plädieren für die ungehinderte Verbreitung ihrer Werke im Internet (2006) 0.02
    0.020881135 = product of:
      0.0626434 = sum of:
        0.056467466 = weight(_text_:darmstadt in 5113) [ClassicSimilarity], result of:
          0.056467466 = score(doc=5113,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.27017626 = fieldWeight in 5113, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.03125 = fieldNorm(doc=5113)
        0.0061759353 = product of:
          0.018527806 = sum of:
            0.018527806 = weight(_text_:22 in 5113) [ClassicSimilarity], result of:
              0.018527806 = score(doc=5113,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.15476047 = fieldWeight in 5113, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5113)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Wem gehört das Weltwissen? Der ganzen Welt natürlich, so würde man spontan antworten. Also müsste theoretisch das Wissen der Welt auch der ganzen Welt jederzeit zugänglich sein - sofern dies technisch denn möglich wäre. Im Rechtsstreit des InternetRiesen Google mit der Wissenschaftlichen Buchgesellschaft (WBG), die ihren Sitz in Darmstadt hat, trafen nun diverse Interessen- und Rechtslagen aufeinander. Dass die Buchgesellschaft ihre Klage zunächst zurückgezogen hat, heißt noch lange nicht, dass die Auseinandersetzung beendet wäre. Der Hintergrund: Seit 2004 baut die Internet-Suchmaschine ihr Portal "Google Print" (www.print.google.com) auf. Dort können digitalisierte Auszüge, zunächst aus englischsprachigen Büchern, kostenlos angeklickt und gelesen werden können. Google wirbt gar bei den Verlagen, die Bücher in das Projekt einzubinden, weil dies die denkbar beste Werbung sei. Umstritten ist jedoch vor allem die so genannte Opt-Out-Regelung, wonach ein Verlag explizit Widerspruch anmelden muss, wenn er mit einer Teilveröffentlichung seiner Werke nicht einverstanden ist. Anders gesagt: Google nimmt sich zunächst das Recht, Bücher, wenn auch nur auszugsweise, ohne Genehmigung des Urhebers online verfügbar zu machen. Mit Unterstützung des Börsenvereins des Deutschen Buchhandels wollte die WBG gerichtlich verhindern, dass auch Werke aus Deutschland eingescannt werden. Die Klage wurde nun zurückgezogen, weil das Hamburger Gericht erstens keine Urheberrechtsverletzung erkennen konnte und sich zudem für nicht zuständig erklärte, weil das Einscannen selbst in den USA vorgenommen wird. Hintergrund Urheberrechtsnovelle Die Furcht der Verlage dürfte nicht unbegründet sein, gerade vor dem Hintergrund, dass in Deutschland zur Zeit der Entwurf einer Urheberrechtsnovelle heftig diskutiert wird, wonach es Bibliotheken erlaubt werden soll, ihre Bestände in digitalisierter Form beliebig oft ihren Besuchern zur Verfügung zu stellen. Das könnte im Extremfall zur Folge haben, dass beispielsweise die Anschaffung eines einzigen Exemplars eines Titels ausreichend wäre, um eine ganze Universität damit zu versorgen. So weit ist es allerdings noch nicht. Und auch Google Print dürfte in seiner jetzigen Form für keinen Verlag zu einer Gefahr werden - zwei bis drei Textschnipsel pro Buch ersetzen noch nicht den Kauf. Doch die Tendenz ist klar, und die Klage der WBG sollte mit Sicherheit auch Signalcharakter haben; man überlegt dort, nun vor dem Bundesgerichtshof in Karlsruhe einen Musterprozess anzustrengen. Den Interessen der Verlage stehen hingegen die von Forschern, gerade aus dem naturwissenschaftlichen Bereich, entgegen, die für das Recht auf ungehinderte Verbreitung ihrer Arbeiten im Internet plädieren. Google jedenfalls, das steht fest, wird weiterhin Konzepte entwickeln, um das Wissen der Welt unter dem Label "Google Print" zu systematisieren."
    Date
    12. 2.1996 22:34:46
  5. Schlüter, C.: Kapitale Suchmaschine : Angesichts der Bedeutung von Google werden Warnungen vor einer Entdemokratisierung des Wissens laut (2006) 0.02
    0.018270992 = product of:
      0.054812975 = sum of:
        0.049409032 = weight(_text_:darmstadt in 5114) [ClassicSimilarity], result of:
          0.049409032 = score(doc=5114,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.23640423 = fieldWeight in 5114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5114)
        0.0054039434 = product of:
          0.01621183 = sum of:
            0.01621183 = weight(_text_:22 in 5114) [ClassicSimilarity], result of:
              0.01621183 = score(doc=5114,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.1354154 = fieldWeight in 5114, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=5114)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Das hatte sich Andreas Auth anders vorgestellt. Der Direktor der Wissenschaftlichen Buchgesellschaft Darmstadt wollte mit einem Antrag auf einstweilige Verfügung das US-Internetportal Google daran hindern, ohne Genehmigung des Verlags Bücher zur Volltextsuche anzubieten. Doch auf Anraten des Landgerichts Hamburg, wo der Fall vorige Woche zur Verhandlung stand, zogen die Darmstädter den Antrag zurück. Zumal das Gericht erklärt hatte, dass die Frage nach der Scan-Erlaubnis nur in den USA zu klären sei. Gefahr für Vielfalt und Qualität Längst hat der weltweit erfolgreichste Suchmaschinenbetreiber begonnen, die kompletten Inhalte von Millionen Bänden aus amerikanischen und britischen Bibliotheken einzuscannen. In diesen Texten können Internetsurfer dann weltweit suchen. Sie bekommen als Antwort auf Suchanfragen aber nicht den kompletten Buchtext zu sehen, sondern nur kurze Schnipsel. Weil es sich vorwiegend um englischsprachige Literatur handelt, die da in absehbarer Zeit der globalen Internetcommunity zur Verfügung stehen soll, gibt es nicht nur juristische Bedenken. Befürchtet wird vor allem kulturelle Hegemonie: Der Vorrang der englischen Sprache werde andere Sprachen und damit auch andere Kulturen verdrängen. Überdies könne man Sprache, Bildung und Wissenschaft nicht einem privaten, letztlich seinen Aktionären und deren Renditeerwartungen verpflichteten Konzern überlassen. Sollen etwa die Auswahlkriterien für die ins Netz gestellten Bücher sich auf die Beliebtheit bei den Nutzern beschränken? Wird hehre Qualität durch schnödes Ranking ersetzt?
    Date
    12. 2.1996 22:34:46
  6. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.02
    0.015330261 = product of:
      0.09198156 = sum of:
        0.09198156 = weight(_text_:kongress in 5523) [ClassicSimilarity], result of:
          0.09198156 = score(doc=5523,freq=4.0), product of:
            0.22430804 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.034187626 = queryNorm
            0.41006804 = fieldWeight in 5523, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.16666667 = coord(1/6)
    
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  7. Fauldrath, J.; Kunisch, A.: Kooperative Evaluation der Usability von Suchmaschineninterfaces (2005) 0.01
    0.0141168665 = product of:
      0.084701195 = sum of:
        0.084701195 = weight(_text_:darmstadt in 3186) [ClassicSimilarity], result of:
          0.084701195 = score(doc=3186,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.40526438 = fieldWeight in 3186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=3186)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Rahmen einer Projektarbeit des Fachbereichs Informations- und Wissensmanagement (IuW) der Fachhochschule Darmstadt mit T-Online International AG (Weiterstadt) wurde eine Untersuchung der Funktionalitäten von Suchmaschinen, Portalen und Metasuchmaschinen durchgeführt. Ziel war es zu ermitteln, inwieweit Standards für das Produkt Suchdienstleistung im Web existieren und wie diese Funktionalitäten bereits heute in die Angebote integriert sind. Hierzu wurden in enger Zusammenarbeit ein Kriterienkatalog erarbeitet und anschließend die Produkte evaluiert. Besonders wichtig ist dabei, dass die Nutzer das Gefühl erhalten, ihre Distanz zur gesuchten Information durch das Angebot zu verringern. Hierbei ist jede Form von Vereinfachung und Hilfe gewünscht, um möglichst schnell, einfach und umfassend zum Ergebnis zu kommen. Das Suchangebot ist für die Suchmaschinenanbieter ein Wirtschaftsfaktor, aber auch für kommerzielle Anbieter ist es wichtig, mit einem möglichst hohen Ranking auf gut gestalteten Ergebnisseiten auffindbar zu sein. Deshalb ist das Thema Usability von Suchmaschineninterfaces brandaktuell.
  8. Aschoff, F.; Rausch von Traubenberg, E.: Usability von Webportalen und Web-Suchmaschinen im Vergleich (2007) 0.01
    0.0141168665 = product of:
      0.084701195 = sum of:
        0.084701195 = weight(_text_:darmstadt in 287) [ClassicSimilarity], result of:
          0.084701195 = score(doc=287,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.40526438 = fieldWeight in 287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.046875 = fieldNorm(doc=287)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Rahmen eines berufspraktischen Studiensemesters bei der T-Online AG (Darmstadt) wurden Suchmaschinen und Portale mit integrierter Suchfunktion hinsichtlich Funktionalität und Usability untersucht. Ausgehend von der von Fauldrath und Kunisch bereits 2005 durchgeführten Untersuchung wurde erneut geprüft, welche Standards sich bei den Suchdienstanbietern etabliert haben und welche Trends erkennbar sind. Der bei der zurückliegenden Evaluation verwendete Kriterienkatalog wurde um einige Kriterien erweitert und als Bewertungsschablone der vorliegenden Evaluation eingesetzt. Besonders wichtig für den Nutzwert eines Suchdienstes ist die Relevanz der Treffer. Der bisher weit verbreitete Weg, entsprechende Spezialsuchen anzubieten, verkompliziert die Benutzung der Suchmaschine erheblich, weshalb auch aufgezeigt wird, welche Strategien die Suchdienste zur besseren Antizipierung des Nutzer-Informationsbedürfnisses bereitstellen. Die somit erzielte verbesserte Einbindung eigener Dienste und Inhalte stellt einen enormen Gewinn dar, da sowohl Nutzer als auch Anbieter gleichermaßen davon profitieren.
  9. Sander-Beuermann, W.: Förderpreis Suchmaschinen : SuMa Awards 2008 (2007) 0.01
    0.013550162 = product of:
      0.081300974 = sum of:
        0.081300974 = weight(_text_:kongress in 6025) [ClassicSimilarity], result of:
          0.081300974 = score(doc=6025,freq=2.0), product of:
            0.22430804 = queryWeight, product of:
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.034187626 = queryNorm
            0.36245233 = fieldWeight in 6025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5610886 = idf(docFreq=169, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6025)
      0.16666667 = coord(1/6)
    
    Content
    "Der SuMa-eV vergibt zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) die »SuMa Awards 2008« als neue Förderpreise für Suchmaschinen. Die SuMa Awards sprechen Programmierer, Künstler, Schriftsteller, Journalisten, Juristen, Wirtschaftswissenschaftler, Soziologen, Bibliothekare, Archivare, Mediziner, Eltern und jedem an, die/der die Veränderungen durch und den Einfluss von Suchmaschinen in seinem Umfeld oder für unsere Gesellschaft verarbeiten will. Eingereichte Arbeiten können sich sowohl mit praktischen als auch theoretischen Aufgabenstellungen und Lösungen im Bereich der SuchmaschinenTechnologie beschäftigen. Sie können aber genauso gesellschaftliche, wirtschaftliche, künstlerische, gesundheitliche oder andere Auswirkungen von Suchmaschinen-Anwendungen darstellen. Eine Jury wird aus den eingereichten Arbeiten die drei Besten auswählen. Diese werden: - zum SuMa-Kongress 2008 vorgestellt, - jeweils mit einem Preisgeld zwischen 2.000 und 3.000 Euro prämiert, - vom SuMa-eV im WWW präsentiert und technisch unterstützt. Die eingereichten Arbeiten müssen neu sein. Die Jury wählt die Preise in einem zweistufigen Verfahren aus: - Einreichen einer Kurzbeschreibung an den SuMa-eV sobald als möglich, spätestens aber bis zum 31.5.2008 (ca.1-2 Seiten DIN A4). - Aufgrund dieser Kurzbeschreibung entscheidet die Jury, ob und in welcher Form die Arbeit angenommen wird. Der endgültige Abgabetermin der Arbeit ist der 30.6.2008. - Die drei besten Arbeiten werden im Rahmen des nächsten SuMa-eV Kongresses im September 2008 präsentiert."
  10. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.01
    0.01164582 = product of:
      0.06987492 = sum of:
        0.06987492 = weight(_text_:darmstadt in 5912) [ClassicSimilarity], result of:
          0.06987492 = score(doc=5912,freq=4.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.33432606 = fieldWeight in 5912, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.02734375 = fieldNorm(doc=5912)
      0.16666667 = coord(1/6)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  11. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.01
    0.0104405675 = product of:
      0.0313217 = sum of:
        0.028233733 = weight(_text_:darmstadt in 3684) [ClassicSimilarity], result of:
          0.028233733 = score(doc=3684,freq=2.0), product of:
            0.20900232 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.034187626 = queryNorm
            0.13508813 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0030879676 = product of:
          0.009263903 = sum of:
            0.009263903 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
              0.009263903 = score(doc=3684,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.07738023 = fieldWeight in 3684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3684)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Date
    22. 6.2005 9:52:00
  12. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.00
    0.004367046 = product of:
      0.026202276 = sum of:
        0.026202276 = product of:
          0.07860683 = sum of:
            0.07860683 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.07860683 = score(doc=3227,freq=4.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  13. Höfer, W.: Detektive im Web (1999) 0.00
    0.004367046 = product of:
      0.026202276 = sum of:
        0.026202276 = product of:
          0.07860683 = sum of:
            0.07860683 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.07860683 = score(doc=4007,freq=4.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 8.1999 20:22:06
  14. Rensman, J.: Blick ins Getriebe (1999) 0.00
    0.004367046 = product of:
      0.026202276 = sum of:
        0.026202276 = product of:
          0.07860683 = sum of:
            0.07860683 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.07860683 = score(doc=4009,freq=4.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 8.1999 21:22:59
  15. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.00
    0.0041172905 = product of:
      0.024703741 = sum of:
        0.024703741 = product of:
          0.07411122 = sum of:
            0.07411122 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.07411122 = score(doc=4686,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    27.11.2005 18:04:22
  16. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.00
    0.003639205 = product of:
      0.021835228 = sum of:
        0.021835228 = product of:
          0.06550568 = sum of:
            0.06550568 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.06550568 = score(doc=4872,freq=4.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 6.2002 19:40:22
  17. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.00
    0.003602629 = product of:
      0.021615773 = sum of:
        0.021615773 = product of:
          0.06484732 = sum of:
            0.06484732 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.06484732 = score(doc=3175,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  18. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.00
    0.003602629 = product of:
      0.021615773 = sum of:
        0.021615773 = product of:
          0.06484732 = sum of:
            0.06484732 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.06484732 = score(doc=3445,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    25. 8.2005 17:42:22
  19. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.00
    0.003602629 = product of:
      0.021615773 = sum of:
        0.021615773 = product of:
          0.06484732 = sum of:
            0.06484732 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.06484732 = score(doc=4224,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    3. 5.1997 8:44:22
  20. Dunning, A.: Do we still need search engines? (1999) 0.00
    0.003602629 = product of:
      0.021615773 = sum of:
        0.021615773 = product of:
          0.06484732 = sum of:
            0.06484732 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.06484732 = score(doc=6021,freq=2.0), product of:
                0.119719245 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.034187626 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Ariadne. 1999, no.22

Languages

  • d 84
  • e 65
  • f 1
  • nl 1
  • More… Less…

Types

  • a 137
  • el 8
  • m 6
  • p 2
  • x 2
  • r 1
  • More… Less…

Classifications