Search (158 results, page 1 of 8)

  • × type_ss:"a"
  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.26
    0.260558 = product of:
      0.390837 = sum of:
        0.07454965 = product of:
          0.22364895 = sum of:
            0.22364895 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.22364895 = score(doc=2514,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.31628737 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.31628737 = score(doc=2514,freq=4.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Heery, R.: Information gateways : collaboration and content (2000) 0.04
    0.04417502 = product of:
      0.13252506 = sum of:
        0.13252506 = sum of:
          0.08800911 = weight(_text_:datenbanken in 4866) [ClassicSimilarity], result of:
            0.08800911 = score(doc=4866,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.38080624 = fieldWeight in 4866, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4866)
          0.044515952 = weight(_text_:22 in 4866) [ClassicSimilarity], result of:
            0.044515952 = score(doc=4866,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.2708308 = fieldWeight in 4866, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4866)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:38:54
    Theme
    Verteilte bibliographische Datenbanken
  3. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.03
    0.02524287 = product of:
      0.07572861 = sum of:
        0.07572861 = sum of:
          0.050290924 = weight(_text_:datenbanken in 2403) [ClassicSimilarity], result of:
            0.050290924 = score(doc=2403,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.21760356 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.025437687 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.025437687 = score(doc=2403,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.33333334 = coord(1/3)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  4. Karzauninkat, S.: Zielfahndung : Suchmaschinen, Kataloge, Spezialisten und kommerzielle Datenbanken richtig einsetzen (1999) 0.02
    0.020954553 = product of:
      0.062863655 = sum of:
        0.062863655 = product of:
          0.12572731 = sum of:
            0.12572731 = weight(_text_:datenbanken in 4135) [ClassicSimilarity], result of:
              0.12572731 = score(doc=4135,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5440089 = fieldWeight in 4135, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4135)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  5. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.02
    0.018742321 = product of:
      0.05622696 = sum of:
        0.05622696 = product of:
          0.11245392 = sum of:
            0.11245392 = weight(_text_:datenbanken in 4093) [ClassicSimilarity], result of:
              0.11245392 = score(doc=4093,freq=10.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.48657638 = fieldWeight in 4093, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
  6. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.02
    0.018147174 = product of:
      0.05444152 = sum of:
        0.05444152 = product of:
          0.10888304 = sum of:
            0.10888304 = weight(_text_:datenbanken in 1888) [ClassicSimilarity], result of:
              0.10888304 = score(doc=1888,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.47112554 = fieldWeight in 1888, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1888)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  7. Höfer, W.: Detektive im Web (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4007,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 20:22:06
  8. Rensman, J.: Blick ins Getriebe (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4009,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 21:22:59
  9. Batscheider, M.: infocore-Metasuchplattform nach Maß (2004) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 2994) [ClassicSimilarity], result of:
              0.10058185 = score(doc=2994,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 2994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2994)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Für Rechercheprofis stellt sich nicht die Frage, ob sie relevante Informationen finden, sondern mit welchem Zeitaufwand. Die wertvollsten Datenschätze liegen meist verborgen in Online-Datenbanken-sprich im Deep Web. Diese können frei zugänglich, registrierungs- oder kostenpfiichtig sein. Damit sind insbesondere Informationsspezialisten in Unternehmen gezwungen, täglich redundante komplexe Rechercheprozesse von Hand auszuführen. Dieser Beitrag erläutert, wie infocore "Deep Web"-Quellen einfach einbindet sowie den Rechercheprozess bis zur Distribution der Suchergebnisse automatisiert optimiert und somit kosteneffizient gestaltet. Besondere Berücksichtigung findet hierbei die Filterstrategie, mit der infocore die Trefferredundanz reduziert und Suchergebnisse thematisch sortiert.
  10. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.01
    0.014989301 = product of:
      0.0449679 = sum of:
        0.0449679 = product of:
          0.0899358 = sum of:
            0.0899358 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.0899358 = score(doc=4872,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:40:22
  11. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.089031905 = score(doc=3175,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  12. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.089031905 = score(doc=3445,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    25. 8.2005 17:42:22
  13. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.089031905 = score(doc=4224,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    3. 5.1997 8:44:22
  14. Dunning, A.: Do we still need search engines? (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.089031905 = score(doc=6021,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Ariadne. 1999, no.22
  15. Bawden, D.: Google and the universe of knowledge (2008) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
              0.089031905 = score(doc=844,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=844)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    7. 6.2008 16:22:20
  16. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.01
    0.014668185 = product of:
      0.044004556 = sum of:
        0.044004556 = product of:
          0.08800911 = sum of:
            0.08800911 = weight(_text_:datenbanken in 284) [ClassicSimilarity], result of:
              0.08800911 = score(doc=284,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38080624 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
  17. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.012831989 = product of:
      0.038495965 = sum of:
        0.038495965 = product of:
          0.07699193 = sum of:
            0.07699193 = weight(_text_:datenbanken in 1721) [ClassicSimilarity], result of:
              0.07699193 = score(doc=1721,freq=12.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.33313605 = fieldWeight in 1721, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1721)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  18. Auf der Suche nach Suchmaschinen (1996) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 5583) [ClassicSimilarity], result of:
              0.076313056 = score(doc=5583,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 5583, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5583)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Cogito. 12(1996) H.5, S.19-22
  19. Bager, J.: Weniger ist mehr : Internet-Suchmaschinen richtig einsetzen (1998) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 1489) [ClassicSimilarity], result of:
              0.076313056 = score(doc=1489,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 1489, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1489)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    29.12.1998 11:22:00
  20. Lob, S.: Per Mausklick auf die neusten Nachrichten : Internet-Suchmaschinen liefern Presse-Überblicke und stellen persönliche Zeitungen zusammen (1998) 0.01
    0.012718843 = product of:
      0.038156528 = sum of:
        0.038156528 = product of:
          0.076313056 = sum of:
            0.076313056 = weight(_text_:22 in 1622) [ClassicSimilarity], result of:
              0.076313056 = score(doc=1622,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46428138 = fieldWeight in 1622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1622)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    29.12.1998 11:22:25

Languages

  • d 92
  • e 64
  • f 1
  • nl 1
  • More… Less…