Search (178 results, page 1 of 9)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.26
    0.260558 = product of:
      0.390837 = sum of:
        0.07454965 = product of:
          0.22364895 = sum of:
            0.22364895 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.22364895 = score(doc=2514,freq=2.0), product of:
                0.3979391 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046937786 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.31628737 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.31628737 = score(doc=2514,freq=4.0), product of:
            0.3979391 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046937786 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Heery, R.: Information gateways : collaboration and content (2000) 0.04
    0.04417502 = product of:
      0.13252506 = sum of:
        0.13252506 = sum of:
          0.08800911 = weight(_text_:datenbanken in 4866) [ClassicSimilarity], result of:
            0.08800911 = score(doc=4866,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.38080624 = fieldWeight in 4866, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4866)
          0.044515952 = weight(_text_:22 in 4866) [ClassicSimilarity], result of:
            0.044515952 = score(doc=4866,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.2708308 = fieldWeight in 4866, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=4866)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:38:54
    Theme
    Verteilte bibliographische Datenbanken
  3. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.03
    0.02524287 = product of:
      0.07572861 = sum of:
        0.07572861 = sum of:
          0.050290924 = weight(_text_:datenbanken in 2403) [ClassicSimilarity], result of:
            0.050290924 = score(doc=2403,freq=2.0), product of:
              0.23111258 = queryWeight, product of:
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.046937786 = queryNorm
              0.21760356 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.9238067 = idf(docFreq=873, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
          0.025437687 = weight(_text_:22 in 2403) [ClassicSimilarity], result of:
            0.025437687 = score(doc=2403,freq=2.0), product of:
              0.16436812 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046937786 = queryNorm
              0.15476047 = fieldWeight in 2403, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2403)
      0.33333334 = coord(1/3)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
    Date
    3. 5.1997 8:44:22
  4. Karzauninkat, S.: Zielfahndung : Suchmaschinen, Kataloge, Spezialisten und kommerzielle Datenbanken richtig einsetzen (1999) 0.02
    0.020954553 = product of:
      0.062863655 = sum of:
        0.062863655 = product of:
          0.12572731 = sum of:
            0.12572731 = weight(_text_:datenbanken in 4135) [ClassicSimilarity], result of:
              0.12572731 = score(doc=4135,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5440089 = fieldWeight in 4135, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4135)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  5. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.02
    0.018742321 = product of:
      0.05622696 = sum of:
        0.05622696 = product of:
          0.11245392 = sum of:
            0.11245392 = weight(_text_:datenbanken in 4093) [ClassicSimilarity], result of:
              0.11245392 = score(doc=4093,freq=10.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.48657638 = fieldWeight in 4093, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4093)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
  6. Damaschke, G.: ¬Ein Toast auf den Google-Cache! (2003) 0.02
    0.018147174 = product of:
      0.05444152 = sum of:
        0.05444152 = product of:
          0.10888304 = sum of:
            0.10888304 = weight(_text_:datenbanken in 1888) [ClassicSimilarity], result of:
              0.10888304 = score(doc=1888,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.47112554 = fieldWeight in 1888, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1888)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Bislang war es mir im Grunde egal, von wem und wo meine Webseiten gelistet werden. Doch seit dem 16. April sehe ich das anders. An diesem Tag - genauer: in der Nacht vom 15. auf den 16. April - ereignete sich ein Datenbank-GAU: Beim Massenhoster Strato rauchte der MySQLServer ab und riss ein paar Tausend Datenbanken ins digitale Nirwana. Zwar habe man die Lage unter Kontrolle und die Reparaturarbeiten seien abgeschlossen, doch »durch die Störung« sei es immerhin möglich, dass »ein sehr kleiner Teil der Datenbanken unvollständig wieder hergestellt worden oder nicht verfügbar« sei. Dummerweise gehörten meine Datenbanken dazu. Natürlich wollte ich immer mal ein Backup anlegen, natürlich kam ich nie so richtig dazu, natürlich waren alle Daten und damit die Sammel- und Tipparbeit etlicher Monate futsch. (Und bevor Sie jetzt ein »selber schuld« brummeln, mal so unter uns: Wie stünde es um Ihre Backup-Moral, wenn Sie dafür mit kruden Telnet-Kommandos hantieren müssen?) Nach dem ersten Ärger ergab ich mich seufzend in mein Schicksal und überlegte, wie ich die verlorenen Daten erneut zusammentragen könnte. Doch da nahte die Rettung: Ein Bekannter erinnerte mich an Google, die hätten doch einen Cache. Und siehe da: Dort fanden sich tatsächlich die verloren geglaubten Daten, hübsch beieinander, kaum eine Woche alt. Und die Moral von der Geschicht': Es lohnt sich, seine Webseiten Google-tauglich zu machen. Nicht wegen der Besucher. Sondern wegen der Backups.
  7. Großjohann, K.: Gathering-, Harvesting-, Suchmaschinen (1996) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 3227) [ClassicSimilarity], result of:
              0.10792297 = score(doc=3227,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 3227, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3227)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    7. 2.1996 22:38:41
    Pages
    22 S
  8. Höfer, W.: Detektive im Web (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4007,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 20:22:06
  9. Rensman, J.: Blick ins Getriebe (1999) 0.02
    0.017987162 = product of:
      0.053961486 = sum of:
        0.053961486 = product of:
          0.10792297 = sum of:
            0.10792297 = weight(_text_:22 in 4009) [ClassicSimilarity], result of:
              0.10792297 = score(doc=4009,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.6565931 = fieldWeight in 4009, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4009)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 8.1999 21:22:59
  10. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.02
    0.017780527 = product of:
      0.05334158 = sum of:
        0.05334158 = product of:
          0.10668316 = sum of:
            0.10668316 = weight(_text_:datenbanken in 2605) [ClassicSimilarity], result of:
              0.10668316 = score(doc=2605,freq=4.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.46160686 = fieldWeight in 2605, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2605)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    BK
    54.64 / Datenbanken
    Classification
    54.64 / Datenbanken
  11. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.02
    0.016958458 = product of:
      0.050875373 = sum of:
        0.050875373 = product of:
          0.10175075 = sum of:
            0.10175075 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.10175075 = score(doc=4686,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    27.11.2005 18:04:22
  12. Batscheider, M.: infocore-Metasuchplattform nach Maß (2004) 0.02
    0.016763642 = product of:
      0.050290924 = sum of:
        0.050290924 = product of:
          0.10058185 = sum of:
            0.10058185 = weight(_text_:datenbanken in 2994) [ClassicSimilarity], result of:
              0.10058185 = score(doc=2994,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.43520713 = fieldWeight in 2994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2994)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Für Rechercheprofis stellt sich nicht die Frage, ob sie relevante Informationen finden, sondern mit welchem Zeitaufwand. Die wertvollsten Datenschätze liegen meist verborgen in Online-Datenbanken-sprich im Deep Web. Diese können frei zugänglich, registrierungs- oder kostenpfiichtig sein. Damit sind insbesondere Informationsspezialisten in Unternehmen gezwungen, täglich redundante komplexe Rechercheprozesse von Hand auszuführen. Dieser Beitrag erläutert, wie infocore "Deep Web"-Quellen einfach einbindet sowie den Rechercheprozess bis zur Distribution der Suchergebnisse automatisiert optimiert und somit kosteneffizient gestaltet. Besondere Berücksichtigung findet hierbei die Filterstrategie, mit der infocore die Trefferredundanz reduziert und Suchergebnisse thematisch sortiert.
  13. MacLeod, R.: Promoting a subject gateway : a case study from EEVL (Edinburgh Engineering Virtual Library) (2000) 0.01
    0.014989301 = product of:
      0.0449679 = sum of:
        0.0449679 = product of:
          0.0899358 = sum of:
            0.0899358 = weight(_text_:22 in 4872) [ClassicSimilarity], result of:
              0.0899358 = score(doc=4872,freq=4.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.54716086 = fieldWeight in 4872, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4872)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2002 19:40:22
  14. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.089031905 = score(doc=3175,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  15. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.089031905 = score(doc=3445,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    25. 8.2005 17:42:22
  16. ap: Suchmaschinen in neuem Gewand : Metaspinner kennt 600 Millionen Seiten (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 4224) [ClassicSimilarity], result of:
              0.089031905 = score(doc=4224,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 4224, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4224)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    3. 5.1997 8:44:22
  17. Dunning, A.: Do we still need search engines? (1999) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.089031905 = score(doc=6021,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Ariadne. 1999, no.22
  18. Bawden, D.: Google and the universe of knowledge (2008) 0.01
    0.014838651 = product of:
      0.044515952 = sum of:
        0.044515952 = product of:
          0.089031905 = sum of:
            0.089031905 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
              0.089031905 = score(doc=844,freq=2.0), product of:
                0.16436812 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046937786 = queryNorm
                0.5416616 = fieldWeight in 844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=844)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    7. 6.2008 16:22:20
  19. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.01
    0.014668185 = product of:
      0.044004556 = sum of:
        0.044004556 = product of:
          0.08800911 = sum of:
            0.08800911 = weight(_text_:datenbanken in 284) [ClassicSimilarity], result of:
              0.08800911 = score(doc=284,freq=2.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.38080624 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
  20. Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009) 0.01
    0.014517739 = product of:
      0.04355322 = sum of:
        0.04355322 = product of:
          0.08710644 = sum of:
            0.08710644 = weight(_text_:datenbanken in 1160) [ClassicSimilarity], result of:
              0.08710644 = score(doc=1160,freq=6.0), product of:
                0.23111258 = queryWeight, product of:
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.046937786 = queryNorm
                0.37690043 = fieldWeight in 1160, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.9238067 = idf(docFreq=873, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1160)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Plötzlich diese Übersicht. Milliarden von Seiten, in Sekundenbruchteilen durchsucht, als Trefferliste sauber angezeigt, mit der größten Selbstverständlichkeit sortiert nach Rang und Namen. Google bestimmt die Routinen des Alltags und ist dennoch nicht die Suchmaschine schlechthin. Auch außerhalb des World Wide Web gibt es zahllose, technisch hochgerüstete Prozeduren des Suchens. Die gegenwärtige Selbstverständlichkeit der einen Suchmaschine läßt leicht übersehen, daß Suchmaschinen einen Interessenkonflikt induzieren zwischen jenen, die sie einsetzen wollen, und jenen, auf die sie angesetzt werden. Ihr prekärer Status im Spannungsfeld zwischen Übersicht und Überwachung wird verdrängt. Anhand von vier Fallstudien zeigt David Gugerli die Entwicklung der Suchmaschine auf, von den frühen Fernseh-Ratespielen, von Robert Lembkes Unterhaltungsshow »Was bin ich?«, über Eduard Zimmermanns Fahndungssendung »Aktenzeichen XY« und Horst Herolds »Kybernetik der Polizei« bis zu der von Ted Codd ausgehenden Entwicklung der relationalen Datenbank. Während Lembke auf die Feststellung von Normalität ausgerichtet war, suchte Zimmermann die Devianz, Herold die Muster und Codd die allgemeingültige Such- und Abfragesprache für in Form gebrachte Wissensbestände, die man seit Mitte der sechziger Jahre Datenbanken nennt. »Die Geschichte der Suchmaschine ist eine eminent politische. Mit Suchmaschinen lassen sich Hoffnungen auf Fundamentaldemokratisierung und informationelle Emanzipation ebenso verbinden wie Horrorvisionen eines Orwellschen Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt.«
    BK
    54.64 Datenbanken
    Classification
    54.64 Datenbanken

Languages

  • d 108
  • e 68
  • f 1
  • nl 1
  • More… Less…

Types

  • a 158
  • el 10
  • m 10
  • p 2
  • x 2
  • r 1
  • More… Less…