Search (326 results, page 1 of 17)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.21
    0.20858817 = product of:
      0.48670572 = sum of:
        0.051311683 = product of:
          0.15393505 = sum of:
            0.15393505 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.15393505 = score(doc=2514,freq=2.0), product of:
                0.273897 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03230675 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.21769702 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.21769702 = score(doc=2514,freq=4.0), product of:
            0.273897 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03230675 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.21769702 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.21769702 = score(doc=2514,freq=4.0), product of:
            0.273897 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03230675 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.42857143 = coord(3/7)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Schneider, N.: ¬Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers (2007) 0.04
    0.042660374 = product of:
      0.1493113 = sum of:
        0.11899605 = weight(_text_:fortschritt in 371) [ClassicSimilarity], result of:
          0.11899605 = score(doc=371,freq=2.0), product of:
            0.22295201 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.03230675 = queryNorm
            0.53372943 = fieldWeight in 371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
        0.03031525 = product of:
          0.075788125 = sum of:
            0.03206353 = weight(_text_:28 in 371) [ClassicSimilarity], result of:
              0.03206353 = score(doc=371,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.27705154 = fieldWeight in 371, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
            0.043724593 = weight(_text_:29 in 371) [ClassicSimilarity], result of:
              0.043724593 = score(doc=371,freq=4.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38474706 = fieldWeight in 371, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=371)
          0.4 = coord(2/5)
      0.2857143 = coord(2/7)
    
    Abstract
    Wenn sich ein Regulierer einem Medium nähert, tut er gut daran, vorab eine persönliche Erklärung abzugeben. Sie sollte die Versicherung enthalten, dass er nicht in der Absicht komme, wirtschaftlichen Fortschritt zu würgen. Ferner sollte der Hinweis enthalten sein, dass er kein Peritomiker der Freiheit sei und keinerlei Fantasie dämpfende Ziele verfolge. Auch wäre es nicht von Schaden zu bekennen, dass man - am besten: immer schon - ein Gegner von Kasuistik aller Art und überdies ein Anhänger des ein wenig verstümmelten pädagogischen Prinzips vom Wachsen lassen sei, und im Übrigen nach der Devise lebe: soviel Freiheit wie möglich und soviel Notwendigkeit wie notwendig.
    Date
    13. 5.2007 10:29:29
    5. 6.2007 11:28:03
  3. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.02
    0.01681877 = product of:
      0.05886569 = sum of:
        0.051370043 = product of:
          0.10274009 = sum of:
            0.10274009 = weight(_text_:wissenschaftlich in 389) [ClassicSimilarity], result of:
              0.10274009 = score(doc=389,freq=2.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.4591467 = fieldWeight in 389, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.5 = coord(1/2)
        0.007495645 = product of:
          0.037478223 = sum of:
            0.037478223 = weight(_text_:29 in 389) [ClassicSimilarity], result of:
              0.037478223 = score(doc=389,freq=4.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3297832 = fieldWeight in 389, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=389)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
    Date
    13. 5.2007 10:29:29
  4. Mayr, P.: Google Scholar als akademische Suchmaschine (2009) 0.01
    0.010831743 = product of:
      0.0379111 = sum of:
        0.034246694 = product of:
          0.06849339 = sum of:
            0.06849339 = weight(_text_:wissenschaftlich in 3023) [ClassicSimilarity], result of:
              0.06849339 = score(doc=3023,freq=2.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3060978 = fieldWeight in 3023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3023)
          0.5 = coord(1/2)
        0.0036644035 = product of:
          0.018322017 = sum of:
            0.018322017 = weight(_text_:28 in 3023) [ClassicSimilarity], result of:
              0.018322017 = score(doc=3023,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.15831517 = fieldWeight in 3023, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3023)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Abstract
    Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.2, S.19-28
  5. Patzwaldt, K.: Google Inside (2005) 0.01
    0.010645623 = product of:
      0.03725968 = sum of:
        0.033757985 = product of:
          0.06751597 = sum of:
            0.06751597 = weight(_text_:technischer in 3509) [ClassicSimilarity], result of:
              0.06751597 = score(doc=3509,freq=2.0), product of:
                0.22216077 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3039059 = fieldWeight in 3509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3509)
          0.5 = coord(1/2)
        0.0035016946 = product of:
          0.017508473 = sum of:
            0.017508473 = weight(_text_:22 in 3509) [ClassicSimilarity], result of:
              0.017508473 = score(doc=3509,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.15476047 = fieldWeight in 3509, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3509)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Abstract
    »Googeln« ist längst als Verb für die Internet-Suche in den Sprachgebrauch eingegangen, aber auch das Unternehmen selbst findet sich seit der 23. Ausgabe des Dudens im offiziellen Sprachschatz der Deutschen. Der Namen der Suchmaschine stammt vom Wort Googol, einer Eins mit hundert Nullen. Googol wurde von Milton Sirotta, einem Neffen des USMathematikers Edward Kasner, geprägt. Der Name verdeutlicht symbolisch das Ziel, die enorme Menge an Informationen im Web und auf der ganzen Welt zu organisieren. Die Gründer von Google konnten lange Zeit von einem Sympathie-Bonus zehren, der ihnen als Jungunternehmer und Garagenfirma entgegengebracht wurde - aber auch ein technischer Vorsprung gegenüber den damaligen und heutigen Konkurrenten sorgten für den Aufstieg des Unternehmens in der Gunst der Nutzer. Die Bekanntheit der Suchmaschine wurde fast ausschließlich über Mund-zu-Mund-Propaganda erreicht. Wichtig waren dabei die neuartige PageRank-Technologie, mit der die Websites komplex bewertet werden sowie das schlichte Design der Suchmaschine. Google profitiert zudem bis heute vom Ruf eines High-Tech-Unternehmes. Google ist seit Herbst 2004 ein börsennotiertes Unternehmen (mit mehr als 3.000 Mitarbeitern und über 100.000 Servern) und kann wohl auch im jahr 2005 die Spitzenposition im Suchmaschinenmarkt behaup ten: Während im Dezember 2004 im US-amerikanischen Markt der Anteil bei rund 48 Prozent der vermittelten Suchanfragen lag (einschließlich AOL, Netscape und Excite), beträgt dieser Anteil in Deutschland über 80 Prozent (einschließlich AOL und T-Online). Google hat den Erfolg jedoch nicht gepachtet: Die Hauptkonkurrenten Yahoo! und MSN sind Google im US-amerikanischen Markt dicht auf den Fersen. Und möglicherweise zieht eines Tages ein anderes Unternehmen mit einer völlig revolutionären Suchtechnologie an Google vorbei. Deshalb wird viel für die Entwicklung der Technologie und die Kundenbindung getan. Dazu gehören Entwicklungen wie die Toolbar, Deskbar, Desktop-Suche und der E-Mail-Dienst Gmail.
    Date
    10. 6.2005 17:43:22
  6. Perez, E.: dtSearch: the little search engine that could (2004) 0.01
    0.008226153 = product of:
      0.05758307 = sum of:
        0.05758307 = product of:
          0.14395767 = sum of:
            0.07328807 = weight(_text_:28 in 2340) [ClassicSimilarity], result of:
              0.07328807 = score(doc=2340,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.63326067 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.125 = fieldNorm(doc=2340)
            0.070669614 = weight(_text_:29 in 2340) [ClassicSimilarity], result of:
              0.070669614 = score(doc=2340,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.6218451 = fieldWeight in 2340, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2340)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Source
    Online. 29(2005) no.1, S.28-
  7. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.01
    0.008019084 = product of:
      0.028066792 = sum of:
        0.025318488 = product of:
          0.050636977 = sum of:
            0.050636977 = weight(_text_:technischer in 52) [ClassicSimilarity], result of:
              0.050636977 = score(doc=52,freq=2.0), product of:
                0.22216077 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03230675 = queryNorm
                0.22792943 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
        0.0027483026 = product of:
          0.013741513 = sum of:
            0.013741513 = weight(_text_:28 in 52) [ClassicSimilarity], result of:
              0.013741513 = score(doc=52,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.11873637 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Content
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
  8. Höfer, W.: Detektive im Web (1999) 0.01
    0.007385613 = product of:
      0.05169929 = sum of:
        0.05169929 = product of:
          0.12924822 = sum of:
            0.05496605 = weight(_text_:28 in 4007) [ClassicSimilarity], result of:
              0.05496605 = score(doc=4007,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.4749455 = fieldWeight in 4007, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
            0.07428217 = weight(_text_:22 in 4007) [ClassicSimilarity], result of:
              0.07428217 = score(doc=4007,freq=4.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.6565931 = fieldWeight in 4007, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4007)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    22. 8.1999 20:22:06
    Source
    Internet Professionell. 1999, H.9, S.28-36
  9. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.0072854734 = product of:
      0.05099831 = sum of:
        0.05099831 = weight(_text_:fortschritt in 5987) [ClassicSimilarity], result of:
          0.05099831 = score(doc=5987,freq=2.0), product of:
            0.22295201 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.03230675 = queryNorm
            0.2287412 = fieldWeight in 5987, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
      0.14285715 = coord(1/7)
    
    Content
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  10. Talbot, D.: Durchblick im Infodschungel (2009) 0.01
    0.0072854734 = product of:
      0.05099831 = sum of:
        0.05099831 = weight(_text_:fortschritt in 2865) [ClassicSimilarity], result of:
          0.05099831 = score(doc=2865,freq=2.0), product of:
            0.22295201 = queryWeight, product of:
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.03230675 = queryNorm
            0.2287412 = fieldWeight in 2865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.901097 = idf(docFreq=120, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2865)
      0.14285715 = coord(1/7)
    
    Content
    Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
  11. tw: Power-Sucher für Power-Surfer : Fireball (1997) 0.01
    0.0071978844 = product of:
      0.05038519 = sum of:
        0.05038519 = product of:
          0.12596297 = sum of:
            0.06412706 = weight(_text_:28 in 357) [ClassicSimilarity], result of:
              0.06412706 = score(doc=357,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5541031 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
            0.06183591 = weight(_text_:29 in 357) [ClassicSimilarity], result of:
              0.06183591 = score(doc=357,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5441145 = fieldWeight in 357, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=357)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    1. 8.1997 14:03:29
    Source
    Com!. 1997, H.8, S.28
  12. Vidmar, D.J.: Darwin on the Web : the evolution of search tools (1999) 0.01
    0.007166098 = product of:
      0.050162684 = sum of:
        0.050162684 = product of:
          0.12540671 = sum of:
            0.06412706 = weight(_text_:28 in 3175) [ClassicSimilarity], result of:
              0.06412706 = score(doc=3175,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5541031 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
            0.06127966 = weight(_text_:22 in 3175) [ClassicSimilarity], result of:
              0.06127966 = score(doc=3175,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5416616 = fieldWeight in 3175, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3175)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Source
    Computers in libraries. 19(1999) no.5, S.22-28
  13. Summann, F.; Wolf, S.: Suchmaschinentechnologie und wissenschaftliche Suchumgebung : Warum braucht man eine wissenschaftliche Suchmaschine? (2006) 0.01
    0.006918878 = product of:
      0.04843214 = sum of:
        0.04843214 = product of:
          0.09686428 = sum of:
            0.09686428 = weight(_text_:wissenschaftlich in 5958) [ClassicSimilarity], result of:
              0.09686428 = score(doc=5958,freq=4.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.43288767 = fieldWeight in 5958, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5958)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Bereits seit längerem ist bekannt, dass Studierende und Wissenschaftler zur Informationsrecherche Internet-Suchmaschinen bevorzugen [Klatt 2001]. Wissenschaftlich relevante Internet-Seiten gehen aber in der Vielzahl der von Google, Yahoo & Co erfassten Seiten unter. In den riesigen Treffermengen allgemeiner Suchmaschinen sind wissenschaftliche Quellen über die umfangreichen Ergebnisseiten verstreut und zudem in der Trefferanzeige nur schwer als solche zu identifizieren. Internet-Suchmaschinen indexieren nur frei zugängliche Internet-Seiten (das sogenannte "Visible Web"). Inhalte aus wissenschaftlich relevanten Fach-, Volltext- und Verbunddatenbanken (das "Invisible Web"), werden bisher nicht erfasst oder zumindest nicht in den allgemeinen Index der Suchmaschinen integriert. Aber auch ein Teil des sichtbaren Webs bleibt für die Suchmaschinen unsichtbar. OAI-Server, die eigentlich zum "Visible Web" gehören, werden - wenn überhaupt - häufig nur unvollständig indexiert, was allerdings auch an der oftmals wenig suchmaschinenfreundlichen Aufbereitung der Inhalte auf diesen Servern liegt. Die gängigen Windows-Office-Dateiformate werden zwar von den allgemeinen Suchmaschinen inzwischen recht zuverlässig indexiert, eine Reihe von in Forschung und Lehre verwendeten Datenformate werden aber bisher von Internet-Suchmaschinen nicht berücksichtigt (z.B. LaTex, OpenOffice). Unabhängig vom Dateiformat gibt es eine Grenze bei der Indexierung besonders großer Dateien. Dateien werden nur bis zu einer Größe von etwa 800 KB vollständig indexiert. Alle Inhalte, die in einer Datei über diesem Limit liegen, werden nicht mehr indexiert, was sich bei umfangreichen Volltexten negativ bemerkbar macht. Um alle relevanten Informationen zu einem Thema zusammentragen zu können, müssen Informationsrecherchen daher sowohl in Suchmaschinen als auch in Fachdatenbanken durchgeführt werden. Recherchen in den Datenbanken des "Invisible Web" erbringen zwar hochwertige Ergebnisse, dauern oft aber vergleichsweise lange. Die Antwortzeiten von Metasuchumgebungen, die ihre Suchanfragen über das Z39.50-Protokoll oder per HTTP an eine Vielzahl von Zieldatenbanken weiterreichen und anschließend die Ergebnisse zusammenführen, sind um ein Vielfaches höher als die der Internet-Suchmaschinen. Häufig ist auch die Hardwareausstattung der Zielserver nicht ausreichend oder die Lizenzverträge der Herstellerfirmen lassen nur eine begrenzte Anzahl gleichzeitiger User zu. Die Bielefeld Academic Search Engine (BASE) vereinigt die Vorteile von Suchmaschinen (einfache Nutzung, schnelle Antwortzeiten, Relevanzbewertung) und Datenbanken (Berücksichtigung bibliographischer Suchaspekte, hohe Qualität der Quellen).
  14. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.0061154817 = product of:
      0.04280837 = sum of:
        0.04280837 = product of:
          0.08561674 = sum of:
            0.08561674 = weight(_text_:wissenschaftlich in 1777) [ClassicSimilarity], result of:
              0.08561674 = score(doc=1777,freq=2.0), product of:
                0.2237631 = queryWeight, product of:
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38262224 = fieldWeight in 1777, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.926203 = idf(docFreq=117, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1777)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
  15. Sauer, D.: Alles schneller finden (2001) 0.01
    0.006070566 = product of:
      0.042493958 = sum of:
        0.042493958 = product of:
          0.10623489 = sum of:
            0.062463704 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.062463704 = score(doc=6835,freq=4.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.043771185 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.043771185 = score(doc=6835,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  16. Bredemeier, W.: "Strategische Deökonomisierung und Demokratisierung der Informationszugänge" : Eine Alternative zu Google und den Sozialen Medien? (2022) 0.01
    0.006028212 = product of:
      0.042197485 = sum of:
        0.042197485 = product of:
          0.08439497 = sum of:
            0.08439497 = weight(_text_:technischer in 598) [ClassicSimilarity], result of:
              0.08439497 = score(doc=598,freq=2.0), product of:
                0.22216077 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3798824 = fieldWeight in 598, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=598)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Gibt es eine Alternative zu Google? Sollte es sie geben? Die vorherrschende Kritik an den HighTech-Konzernen setzt an ihrer Marktmacht und deren Missbrauch an. Diesen ist politisch mit "Regulierung", "Sanktionierung" und "Sicherstellung von mehr Wettbewerb" zu begegnen. Evgeny Morozov, der aus Weißrussland stammende Technologie- und Internet-Kritiker, wurde mit den Büchern "The Net Delusion" (2011) und "To Save Everything Click Here" (2013), speziell in Deutschland als FAZ-Kolumnist bekannt. Mit seiner Kritik an den Tech-Konzernen setzt er grundsätzlicher als die in der öffentlichen Debatte dominierenden wirtschaftlichen Zusammenhänge an: Er fragt nach der Qualität, Relevanz und Originalität der suchbar und verfügbar gemachten Inhalte. Folgen wir ihm, so würde mehr Wettbewerb unter Suchmaschinen wenig nützen, wenn sich die neuen Player in den Kriterien, auf die ihre Algorithmen festgelegt sind, nicht von Google unterscheiden (und die aus technischer Sicht womöglich schlechter als Google sind).
  17. Loeper, D. von: Sherlock Holmes im Netz (1997) 0.01
    0.0050251256 = product of:
      0.03517588 = sum of:
        0.03517588 = product of:
          0.087939695 = sum of:
            0.04416851 = weight(_text_:29 in 6566) [ClassicSimilarity], result of:
              0.04416851 = score(doc=6566,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38865322 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
            0.043771185 = weight(_text_:22 in 6566) [ClassicSimilarity], result of:
              0.043771185 = score(doc=6566,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.38690117 = fieldWeight in 6566, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6566)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    22. 2.1997 19:50:29
  18. ¬Die Googleisierung der Informationssuche : Suchmaschinen zwischen Nutzung und Regulierung (2014) 0.00
    0.0048225694 = product of:
      0.033757985 = sum of:
        0.033757985 = product of:
          0.06751597 = sum of:
            0.06751597 = weight(_text_:technischer in 1840) [ClassicSimilarity], result of:
              0.06751597 = score(doc=1840,freq=2.0), product of:
                0.22216077 = queryWeight, product of:
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03230675 = queryNorm
                0.3039059 = fieldWeight in 1840, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.8766055 = idf(docFreq=123, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1840)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Suchmaschinen ermöglichen den Zugang zu Informationen im Internet und machen es als grenzenloses Informationsportal nutzbar. Netzinhalte, die nicht durch Suchmaschinen auffindbar sind, existieren für die Internetnutzer gar nicht - ein großes Gefahrenpotenzial für den einzelnen Nutzer und die Gesellschaft. Der vorliegende Band beleuchtet das Phänomen aus kommunikationswissenschaftlicher, rechtlicher, pädagogischer und technischer Perspektive.
  19. Kiefer, A.: ¬Die Googlewhacker (2002) 0.00
    0.004585534 = product of:
      0.032098737 = sum of:
        0.032098737 = product of:
          0.053497892 = sum of:
            0.018322017 = weight(_text_:28 in 262) [ClassicSimilarity], result of:
              0.018322017 = score(doc=262,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.15831517 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.017667403 = weight(_text_:29 in 262) [ClassicSimilarity], result of:
              0.017667403 = score(doc=262,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.15546128 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
            0.017508473 = weight(_text_:22 in 262) [ClassicSimilarity], result of:
              0.017508473 = score(doc=262,freq=2.0), product of:
                0.11313273 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03230675 = queryNorm
                0.15476047 = fieldWeight in 262, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=262)
          0.6 = coord(3/5)
      0.14285715 = coord(1/7)
    
    Date
    20. 3.2002 10:28:22
    Source
    Frankfurter Rundschau. Nr.66 vom 19.3.2002, S.29
  20. Dasgupta, S.K.: Search engines : tooles for exploring the Internet (1998) 0.00
    0.0041130767 = product of:
      0.028791536 = sum of:
        0.028791536 = product of:
          0.07197884 = sum of:
            0.036644034 = weight(_text_:28 in 3524) [ClassicSimilarity], result of:
              0.036644034 = score(doc=3524,freq=2.0), product of:
                0.115731284 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03230675 = queryNorm
                0.31663033 = fieldWeight in 3524, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3524)
            0.035334807 = weight(_text_:29 in 3524) [ClassicSimilarity], result of:
              0.035334807 = score(doc=3524,freq=2.0), product of:
                0.11364504 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03230675 = queryNorm
                0.31092256 = fieldWeight in 3524, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3524)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    8. 5.1999 19:28:29

Years

Languages

  • d 177
  • e 145
  • f 2
  • nl 1
  • More… Less…

Types

  • a 294
  • el 17
  • m 17
  • x 4
  • p 2
  • s 2
  • r 1
  • More… Less…