Search (138 results, page 1 of 7)

  • × language_ss:"e"
  • × theme_ss:"Suchmaschinen"
  • × type_ss:"a"
  1. Weichselgartner, E.; Baier, C.: Sechs Jahre PsychSpider : Aus der Praxis des Betriebs einer Psychologie-Suchmaschine für freie Web-Inhalte (2007) 0.05
    0.05294723 = product of:
      0.10589446 = sum of:
        0.031917814 = weight(_text_:und in 293) [ClassicSimilarity], result of:
          0.031917814 = score(doc=293,freq=16.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.34630734 = fieldWeight in 293, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=293)
        0.02807735 = weight(_text_:der in 293) [ClassicSimilarity], result of:
          0.02807735 = score(doc=293,freq=12.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.30226544 = fieldWeight in 293, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=293)
        0.045899298 = product of:
          0.13769789 = sum of:
            0.13769789 = weight(_text_:psychologie in 293) [ClassicSimilarity], result of:
              0.13769789 = score(doc=293,freq=6.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                0.562881 = fieldWeight in 293, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=293)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Seit Sommer 2000 betreibt das Zentrum für Psychologische Information und Dokumentation (ZPID) den PsychSpider, eine Spezialsuchmaschine für wissenschaftliche Inhalte zur Psychologie. Der PsychSpider ist vorwiegend eine Websuchmaschine, aber auch strukturierte bibliographische Daten werden indiziert. Gegenwärtig bietet der PsychSpider den integrierten Zugang zu ca. 800.000 Dokumenten aus dem Surface Web und dem Deep Web. Die Suchmaschine verfügt über zahlreiche fortschrittliche Merkmale wie Boolesche Operatoren, natürlichsprachige Eingaben, "Query-by-Example", Relevanzbewertung der Resultate, Strukturierung des Datenbestands in unterschiedliche Kollektionen, im- und exportierbare Indexe, parametrische Suche und automatische Kategorisierung. Die mehrjährige Erfahrung zeigt, dass auch eine Technologie, die eigentlich dazu dienen sollte, möglichst automatisch die relevanten Informationen aus den Myriaden von Dokumenten im Internet herauszufischen, umfängliche menschliche Betreuung braucht. Das liegt an der formalen und inhaltlichen Qualität von Inhalten, aber auch an technologischen Faktoren wie zum Beispiel Content Management Systemen. Die Nutzung des PsychSpider ist über die Jahre kontinuierlich gewachsen und er gehört zu den erfolgreichsten Web-Angeboten des ZPID. Aus strategischer Sicht ist eine nach den Kriterien einer wissenschaftlichen Fachinformationseinrichtung betriebene Suchmaschine unverzichtbar und der weitere Ausbau wird die Attraktivität deutlich erhöhen.
    Field
    Psychologie
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.173-178
  2. Koch, T.: Searching the Web : systematic overview over indexes (1995) 0.04
    0.036970533 = product of:
      0.07394107 = sum of:
        0.022569306 = weight(_text_:und in 3205) [ClassicSimilarity], result of:
          0.022569306 = score(doc=3205,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 3205, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3205)
        0.032420933 = weight(_text_:der in 3205) [ClassicSimilarity], result of:
          0.032420933 = score(doc=3205,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 3205, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3205)
        0.018950824 = product of:
          0.056852467 = sum of:
            0.056852467 = weight(_text_:29 in 3205) [ClassicSimilarity], result of:
              0.056852467 = score(doc=3205,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.38865322 = fieldWeight in 3205, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3205)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Pages
    S.29-61
    Source
    Wissen in elektronischen Netzwerken: Strukturierung, Erschließung und Retrieval von Informationsressourcen im Internet. Eine Auswahl von Vorträgen der 19. Jahrestagung der Gesellschaft für Klassifikation, Basel 1995. Hrsg.: H.-C. Hobohm u. H.-J. Wätjen
  3. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.03
    0.029980524 = product of:
      0.08994157 = sum of:
        0.041798938 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.041798938 = score(doc=399,freq=14.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.04814263 = weight(_text_:der in 399) [ClassicSimilarity], result of:
          0.04814263 = score(doc=399,freq=18.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.5182773 = fieldWeight in 399, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.149-158
  4. Pieper, D.; Wolf, S.: BASE - Eine Suchmaschine für OAI-Quellen und wissenschaftliche Webseiten (2007) 0.03
    0.026002197 = product of:
      0.07800659 = sum of:
        0.038698297 = weight(_text_:und in 294) [ClassicSimilarity], result of:
          0.038698297 = score(doc=294,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41987535 = fieldWeight in 294, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=294)
        0.03930829 = weight(_text_:der in 294) [ClassicSimilarity], result of:
          0.03930829 = score(doc=294,freq=12.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4231716 = fieldWeight in 294, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=294)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Aufsatz beschreibt die Entwicklung der Suchmaschine BASE (Bielefeld Academic Search Engine) seit 2005. In dieser Zeit wurde der Index um ein Vielfaches ausgebaut und auch die Nutzungszahlen stiegen deutlich. Der Schwerpunkt liegt auf der Indexierung von Dokumentenservern, die ihre Daten über das "Protocol for Metadata Harvesting" (OAI-PMH) bereitstellen. Im Gegensatz zu speziellen OAI-Suchmaschine wie OAIster verfügt BASE jedoch über weitergehende Suchmöglichkeiten und indexiert auch wissenschaftliche Webseiten mit Hilfe eines integrierten Web-Crawlers und andere Quellen, wie zum Beispiel den Bibliothekskatalog der Universitätsbibliothek Bielefeld. BASE kommt darüber hinaus als Suchsystem auch in anderen Bereichen, zum Beispiel im Bielefeld eScholarship Repository, als Suchmaschine der Universität Bielefeld und im EU-Projekt DRIVER via Schnittstellen zum BASE-Index zum Einsatz.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.179-182
  5. Aschoff, F.; Rausch von Traubenberg, E.: Usability von Webportalen und Web-Suchmaschinen im Vergleich (2007) 0.03
    0.025735503 = product of:
      0.07720651 = sum of:
        0.038301382 = weight(_text_:und in 287) [ClassicSimilarity], result of:
          0.038301382 = score(doc=287,freq=16.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41556883 = fieldWeight in 287, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=287)
        0.03890512 = weight(_text_:der in 287) [ClassicSimilarity], result of:
          0.03890512 = score(doc=287,freq=16.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4188313 = fieldWeight in 287, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=287)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Rahmen eines berufspraktischen Studiensemesters bei der T-Online AG (Darmstadt) wurden Suchmaschinen und Portale mit integrierter Suchfunktion hinsichtlich Funktionalität und Usability untersucht. Ausgehend von der von Fauldrath und Kunisch bereits 2005 durchgeführten Untersuchung wurde erneut geprüft, welche Standards sich bei den Suchdienstanbietern etabliert haben und welche Trends erkennbar sind. Der bei der zurückliegenden Evaluation verwendete Kriterienkatalog wurde um einige Kriterien erweitert und als Bewertungsschablone der vorliegenden Evaluation eingesetzt. Besonders wichtig für den Nutzwert eines Suchdienstes ist die Relevanz der Treffer. Der bisher weit verbreitete Weg, entsprechende Spezialsuchen anzubieten, verkompliziert die Benutzung der Suchmaschine erheblich, weshalb auch aufgezeigt wird, welche Strategien die Suchdienste zur besseren Antizipierung des Nutzer-Informationsbedürfnisses bereitstellen. Die somit erzielte verbesserte Einbindung eigener Dienste und Inhalte stellt einen enormen Gewinn dar, da sowohl Nutzer als auch Anbieter gleichermaßen davon profitieren.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.141-148
  6. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.02
    0.024631342 = product of:
      0.073894024 = sum of:
        0.041798938 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.041798938 = score(doc=284,freq=14.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.032095086 = weight(_text_:der in 284) [ClassicSimilarity], result of:
          0.032095086 = score(doc=284,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34551817 = fieldWeight in 284, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.33333334 = coord(2/6)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  7. hbz: ¬Das Suchraum-Konzept (2007) 0.02
    0.02209163 = product of:
      0.06627489 = sum of:
        0.033853956 = weight(_text_:und in 310) [ClassicSimilarity], result of:
          0.033853956 = score(doc=310,freq=18.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.3673144 = fieldWeight in 310, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
        0.032420933 = weight(_text_:der in 310) [ClassicSimilarity], result of:
          0.032420933 = score(doc=310,freq=16.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 310, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
      0.33333334 = coord(2/6)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  8. Kwiatkowski, M.; Höhfeld, S.: Thematisches Aufspüren von Web-Dokumenten : eine kritische Betrachtung von Focused Crawling-Strategien (2007) 0.02
    0.021446249 = product of:
      0.06433874 = sum of:
        0.031917814 = weight(_text_:und in 153) [ClassicSimilarity], result of:
          0.031917814 = score(doc=153,freq=16.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.34630734 = fieldWeight in 153, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.032420933 = weight(_text_:der in 153) [ClassicSimilarity], result of:
          0.032420933 = score(doc=153,freq=16.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 153, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
      0.33333334 = coord(2/6)
    
    Abstract
    Herkömmliche Suchmaschinen dienen der breiten Websuche und zeichnen sich zumeist durch eine hohe Quantität - nicht unbedingt durch Qualität - ihrer Ergebnismengen aus. Zum Suchen von Dokumenten wird ein allgemeiner Crawler eingesetzt, der Webseiten aufspürt, um große Datenspeicher aufzubauen. Focused Crawler gehen dagegen gezielter vor: Nicht enorme Datenmengen sollen durchsucht, gespeichert und indexiert werden, sondern nur bestimmte, thematisch relevante Segmente des World Wide Web. Der Focused Crawler muss einen möglichst optimalen Weg durch das Web finden, um Knowledge Discovery zu betreiben. Dabei bleiben die für eine Thematik irrelevanten Bereiche des Web unberücksichtigt. Die Aufgabe wird dadurch erheblich verkleinert und der Ressourcenaufwand verringert. Ziel ist die Produktion qualifizierter Suchergebnisse zu einem bestimmten Wissensgebiet. Im Allgemeinen können Focused Crawling-Techniken für den Aufbau spezialisierter vertikaler Suchmaschinen eingesetzt werden. Sie sind darüber hinaus im Bereich der Digitalen Bibliotheken von Vorteil. Da diese oft über einen thematischen Schwerpunkt verfügen und der qualifizierten Literatur-Untersuchung dienen, müssen sie einen gewissen Qualitätsanspruch Genüge leisten und dabei lediglich Anfragen zu einem definierten Wissensbereich bedienen. Der Einsatz von Focused Crawling bietet sich also an, um eine hohe Dokument-Qualität in einer spezifischen Domäne zu gewährleisten. Dieser Review-Artikel beleuchtet grundlegende Ansätze des Focused Crawling und verfolgt diese bis in die aktuellen Entwicklungen. Praktische Einsatzgebiete und aktuelle Systeme untermauern die Bedeutsamkeit des Forschungsgebiets. Darüber hinaus wird eine kritische Betrachtung der aufgeführten Ansätze geleistet.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.2, S.69-82
  9. Lewandowski, D.: Freiwillige Selbstkontrolle, Stärkung "alternativer Suchmaschinen" : Suchmaschinen und Politik (2005) 0.02
    0.01833008 = product of:
      0.05499024 = sum of:
        0.022569306 = weight(_text_:und in 3374) [ClassicSimilarity], result of:
          0.022569306 = score(doc=3374,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 3374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3374)
        0.032420933 = weight(_text_:der in 3374) [ClassicSimilarity], result of:
          0.032420933 = score(doc=3374,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 3374, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3374)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suchmaschinen sind in der Politik angekommen. Einerseits wurde eine Freiwillige Selbstkontrolle unter Beteiligung großerAnbietergegründet Andererseits beschäftigt sich die grüne Bundestagsfraktion mit der Frage, ob die bisher bestehende Suchmaschinen-Struktur die beste für den Nutzer sei.
  10. Charlier, M.: Netgeschichten: http://sexygirls.com (1997) 0.02
    0.018197747 = product of:
      0.05459324 = sum of:
        0.027083166 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.027083166 = score(doc=1216,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.29385152 = fieldWeight in 1216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1216)
        0.027510073 = weight(_text_:der in 1216) [ClassicSimilarity], result of:
          0.027510073 = score(doc=1216,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.29615843 = fieldWeight in 1216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1216)
      0.33333334 = coord(2/6)
    
    Abstract
    Mit einer kurzen Geschichte der Entwicklung von Yahoo durch Jerry Yang und David Filo.
  11. Burckhardt, D.: Historische Rezensionen online : Eine thematische Suchmaschine von Clio-online (2007) 0.02
    0.017540842 = product of:
      0.052622527 = sum of:
        0.033169966 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.033169966 = score(doc=292,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.35989314 = fieldWeight in 292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
        0.01945256 = weight(_text_:der in 292) [ClassicSimilarity], result of:
          0.01945256 = score(doc=292,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.20941564 = fieldWeight in 292, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
      0.33333334 = coord(2/6)
    
    Abstract
    Historische Rezensionen online (HR O) ist eine auf geschichtswissenschaftliche Rezensionen fokussierte Suchmaschine. Sie berücksichtigt ausschließlich fachwissenschaftliche Besprechungen, die im Web veröffentlicht wurden und ohne Zugangsbeschränkungen im Volltext zur Verfügung stehen. Eingebunden in das Portal des DFG-geförderten Kooperationsprojektes Clio-online sind über eine einfache Suchmaske gegenwärtig mehr als 35.000 Rezensionen zu über 30.000 Publikationen im Volltext recherchierbar. Statt unter hohem Aufwand Daten zu erstellen oder manuell zu katalogisieren, werden bei HRO bereits vorhandene Texte und bibliografische Daten voll automatisiert gesammelt, verknüpft und in einem zentralen Suchindex aufbereitet. Die Spezialisierung auf eine Textsorte und die Anreicherung der Rezensionstexte mit den in der Verbunddatenbank des GBV bereits erfassten bibliografischen Informationen erlauben zudem zielgerichtete Anfragen nach bestimmten Autoren oder eingeschränkt auf einzelne Themenbereiche, ein Mehrwert für die Nutzerinnen und Nutzer von HRO gegenüber kommerziellen Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.169-172
  12. Suchen im Web muß einfach werden! (1999) 0.02
    0.015164791 = product of:
      0.04549437 = sum of:
        0.022569306 = weight(_text_:und in 2930) [ClassicSimilarity], result of:
          0.022569306 = score(doc=2930,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2930)
        0.022925062 = weight(_text_:der in 2930) [ClassicSimilarity], result of:
          0.022925062 = score(doc=2930,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.2467987 = fieldWeight in 2930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2930)
      0.33333334 = coord(2/6)
    
    Abstract
    Selbst die großen internationalen Suchmaschinen kennen bestenfalls nur ein Drittel aller Webseiten! Das ergab die Studie der amerikanischen Experten Steve Lawrence und C. Lee Giles vom renommierten NEC Research Institute (www.neci.nj.nec.com/homepages/lawrence). In Zukunft wird die Suche einfacher
  13. Feldman, S.: Find what I mean, not what I say : meaning-based search tools (2000) 0.02
    0.015164791 = product of:
      0.04549437 = sum of:
        0.022569306 = weight(_text_:und in 4799) [ClassicSimilarity], result of:
          0.022569306 = score(doc=4799,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 4799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4799)
        0.022925062 = weight(_text_:der in 4799) [ClassicSimilarity], result of:
          0.022925062 = score(doc=4799,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.2467987 = fieldWeight in 4799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=4799)
      0.33333334 = coord(2/6)
    
    Content
    Mit einer Zusammenstellung von Adressen und einer tabellarischen Übersicht der eingesetzten linguistischen Tools
  14. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.02
    0.015088774 = product of:
      0.045266323 = sum of:
        0.022456177 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.022456177 = score(doc=3068,freq=22.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24364883 = fieldWeight in 3068, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
        0.022810148 = weight(_text_:der in 3068) [ClassicSimilarity], result of:
          0.022810148 = score(doc=3068,freq=22.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.2455616 = fieldWeight in 3068, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3068)
      0.33333334 = coord(2/6)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  15. Höchstötter, N.: Suchverhalten im Web : Erhebung, Analyse und Möglichkeiten (2007) 0.01
    0.014678312 = product of:
      0.044034936 = sum of:
        0.0302799 = weight(_text_:und in 281) [ClassicSimilarity], result of:
          0.0302799 = score(doc=281,freq=10.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.328536 = fieldWeight in 281, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=281)
        0.0137550365 = weight(_text_:der in 281) [ClassicSimilarity], result of:
          0.0137550365 = score(doc=281,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.14807922 = fieldWeight in 281, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=281)
      0.33333334 = coord(2/6)
    
    Abstract
    Suchmaschinen stellen eine wichtige Möglichkeit dar, um neue Informationen oder Webseiten im Internet zu finden. Das Online-Marketing wurde dadurch verstärkt auf das Suchmaschinen-Marketing ausgerichtet, bei dem vor allem darauf geachtet wird, dass man in Suchmaschinen gut sichtbar ist. Bei der effizienten Planung von Marketing-Aktionen ist es deshalb wichtig, nicht nur profunde Kenntnisse über die Funktionsweise von Suchmaschinen zu haben, sondern auch das Suchverhalten von Suchmaschinennutzern zu untersuchen und die Ergebnisse geeignet umzusetzen. In diesem Beitrag wird auf die Erforschung des Suchverhaltens im Web und auf die Interaktion von Menschen mit Suchmaschinen ab 1997 eingegangen. In erster Linie werden verschiedene Erhebungsmethoden erklärt und Analysen vorgestellt. Es wird auch diskutiert, wie die Ergebnisse umgesetzt werden können, um die Auffindbarkeit von Webseiten zu verbessern.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.135-140
  16. Price, A.: Five new Danish subject gateways under development (2000) 0.01
    0.013783218 = product of:
      0.041349653 = sum of:
        0.022569306 = weight(_text_:und in 4878) [ClassicSimilarity], result of:
          0.022569306 = score(doc=4878,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 4878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4878)
        0.018780347 = product of:
          0.05634104 = sum of:
            0.05634104 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.05634104 = score(doc=4878,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    22. 6.2002 19:41:31
    Field
    Lebensmittel und Ernährung
  17. Millionen historischer Bücher im Volltext online (2005) 0.01
    0.012455337 = product of:
      0.03736601 = sum of:
        0.013541583 = weight(_text_:und in 2169) [ClassicSimilarity], result of:
          0.013541583 = score(doc=2169,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.14692576 = fieldWeight in 2169, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2169)
        0.023824425 = weight(_text_:der in 2169) [ClassicSimilarity], result of:
          0.023824425 = score(doc=2169,freq=6.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.25648075 = fieldWeight in 2169, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2169)
      0.33333334 = coord(2/6)
    
    Abstract
    Google will in diesen Tagen im Rahmen eines Zehn-Jahres-Projektes mit dem Scannen von 15 Millionen Büchern von der Oxford University, Harvard University, Stanford University, der University of Michigan und der New York Public Library beginnen. Die Bücher, bei denen alle Copyrights erloschen sind, werden vollständig online gebracht. Aus den anderen Büchern sollen Auszüge offeriert werden. Password-Partner David Worlock (London) kommentierte den Sprung von Google in die gedruckte Welt: "More than anything, the acceleration of Google's engagement with the analog, printed world represents a decisive moment in the evolution of information publishing- toward providing "solutions" rather than the passive information assets that Google may be an the way to providing as a content utility. As its strategy unfolds, and its competitors respond, muck of the still substantially offline world of publishers, booksellers, and institutional collections, will see a year of changed assumptions and dissolving boundaries."
  18. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.01
    0.011007826 = product of:
      0.06604695 = sum of:
        0.06604695 = product of:
          0.19814086 = sum of:
            0.19814086 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.19814086 = score(doc=2514,freq=2.0), product of:
                0.3525525 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04158434 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  19. Koch, T.: Quality-controlled subject gateways : definitions, typologies, empirical overview (2000) 0.01
    0.009731262 = product of:
      0.029193785 = sum of:
        0.016047543 = weight(_text_:der in 631) [ClassicSimilarity], result of:
          0.016047543 = score(doc=631,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.17275909 = fieldWeight in 631, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=631)
        0.013146243 = product of:
          0.03943873 = sum of:
            0.03943873 = weight(_text_:22 in 631) [ClassicSimilarity], result of:
              0.03943873 = score(doc=631,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.2708308 = fieldWeight in 631, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=631)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Mit einem Anhang, der in fachlicher Ordnung vorhandene Subject gateways auflistet; vgl. unter: http://www.lub.lu.se/tk/SBIGs.html
    Date
    22. 6.2002 19:37:55
  20. Smith, A.G.: Search features of digital libraries (2000) 0.01
    0.0090988735 = product of:
      0.02729662 = sum of:
        0.013541583 = weight(_text_:und in 940) [ClassicSimilarity], result of:
          0.013541583 = score(doc=940,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.14692576 = fieldWeight in 940, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=940)
        0.0137550365 = weight(_text_:der in 940) [ClassicSimilarity], result of:
          0.0137550365 = score(doc=940,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.14807922 = fieldWeight in 940, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=940)
      0.33333334 = coord(2/6)
    
    Content
    Enthält eine Zusammenstellung der Werkzeuge und Hilfsmittel des Information Retrieval

Years