Search (142 results, page 2 of 8)

  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Behrens, D.: Test: Datei-Newsserver (2004) 0.01
    0.010849538 = product of:
      0.043398153 = sum of:
        0.043398153 = sum of:
          0.02798154 = weight(_text_:software in 2139) [ClassicSimilarity], result of:
            0.02798154 = score(doc=2139,freq=4.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.15496688 = fieldWeight in 2139, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
          0.015416614 = weight(_text_:22 in 2139) [ClassicSimilarity], result of:
            0.015416614 = score(doc=2139,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.09672529 = fieldWeight in 2139, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2139)
      0.25 = coord(1/4)
    
    Content
    "Tauschbörsen sind nur eine Möglichkeit, im Internet interessante Dateien zu finden. Es gibt auch andere Wege, zum Beispiel das Usenet. Es besteht aus mehreren tausend Newsservern weltweit, die ihren Datenbestand ständig miteinander abgleichen. Sendet ein Anwender eine Datei an einen Newsserver, steht sie nach ein paar Stunden auf allen Servern zur Verfügung. - Vorteile gegenüber Tauschbörsen - Gegenüber Tauschbörsen haben Newsserver einige Vorteile. Die Übertragungsdaten beim Download ,sind meist um einiges höher und reizen sogar DSL-Anschlüsse mit 1500 MBit/s voll aus. Bei den meisten Newsserver-Anbietern wird Anonymität groß geschrieben. Sie protokollieren nicht mit, welche Dateien Sie herunterladen. Während Sie bei Tauschbörsen wissen müssen, wonach Sie suchen, können Sie bei Newsservern im Angebot stöbern. Zu jedem Thema gibt es eine bestimmte Rubrik, Newsgroup genannt. Egal, ob Sie auf der Suche nach Bildern, verschollener Software, Filmen oder MP3-Dateien mit Musik aus den 70er und 80er Jahren sind, Sie finden für jedes Interesse ein eigenes Forum. - Der Ursprung von Datei-Newsgroups - Newsserver gibt es schon seit den Anfängen des Internets. Sie waren ursprünglich zum reinen Meinungs- und Gedankenaustausch gedacht. Irgendwann kamen Anwender auf die Idee, spezielle Newsgroups für den Austausch von Dateien einzurichten - sogenannte Binärgruppen. Je mehr solcher Gruppen es gab und je mehr Anwender sie nutzten, desto kostspieliger wurde die Angelegenheit für die Betreiber der Newsserver. Sie mussten nicht nur in zusätzliche Speicherkapazität für die Megabyte-schweren Nachrichten investieren, sondern auch den erhöhten Datenverkehr bezahlen, der durch ihre Leitungen fließt. Viele InternetProvider bieten daher heute keine Binärgruppen mehr auf ihren Servern an. T-Online, AOL und viele weitere Internet-Provider stellen für ihre Kunden Newsserver bereit, die lediglich Text-Newsgroups führen. Auch das Newsgroup-Archiv von Google (http://groups.google.de) bietet keinen Zugriff auf Binärinhalte.
    - Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
  2. Back, J.: ¬An evaluation of relevancy ranking techniques used by Internet search engines (2000) 0.01
    0.01079163 = product of:
      0.04316652 = sum of:
        0.04316652 = product of:
          0.08633304 = sum of:
            0.08633304 = weight(_text_:22 in 3445) [ClassicSimilarity], result of:
              0.08633304 = score(doc=3445,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.5416616 = fieldWeight in 3445, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3445)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    25. 8.2005 17:42:22
  3. Bawden, D.: Google and the universe of knowledge (2008) 0.01
    0.01079163 = product of:
      0.04316652 = sum of:
        0.04316652 = product of:
          0.08633304 = sum of:
            0.08633304 = weight(_text_:22 in 844) [ClassicSimilarity], result of:
              0.08633304 = score(doc=844,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.5416616 = fieldWeight in 844, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=844)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    7. 6.2008 16:22:20
  4. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.01
    0.010560764 = product of:
      0.042243056 = sum of:
        0.042243056 = sum of:
          0.023743123 = weight(_text_:software in 2617) [ClassicSimilarity], result of:
            0.023743123 = score(doc=2617,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.13149375 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
          0.018499935 = weight(_text_:22 in 2617) [ClassicSimilarity], result of:
            0.018499935 = score(doc=2617,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.116070345 = fieldWeight in 2617, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2617)
      0.25 = coord(1/4)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Date
    5. 1.1997 9:39:22
  5. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.01
    0.010397079 = product of:
      0.041588318 = sum of:
        0.041588318 = sum of:
          0.019785935 = weight(_text_:software in 2324) [ClassicSimilarity], result of:
            0.019785935 = score(doc=2324,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.10957812 = fieldWeight in 2324, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2324)
          0.021802383 = weight(_text_:22 in 2324) [ClassicSimilarity], result of:
            0.021802383 = score(doc=2324,freq=4.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.13679022 = fieldWeight in 2324, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2324)
      0.25 = coord(1/4)
    
    Content
    In ihrer Garage also bauten die zwei ihre ersten Rechner auf, gebrauchte, die sie bei Frys, dem großen ElektronikDiscounter im Silicon Valley, billig gekauft hatten. Und sie luden die Maschinen mit kostenloser Software wie dem Betriebssystem Linux. Hinzu kam die von Page und Brins ausgetüftelte Google-Suchtechnik. Ihr zugrunde liegt die Überlegung, dass gute und wichtige Webseiten die sind, auf die oft verwiesen wird. Also schaffen es nur solche unter die Top Ten, die von möglichst vielen Links empfohlen worden sind (siehe Stichwort Suchmethode). Natürlich lädt auch dieses Systems zu Tricksereien ein. Allein in Deutschland, so schätzen Kenner der Szene, gibt es rund 100 Profis, die sich darauf spezialisiert haben, die Google-Ergebnisse zu fälschen: Suchmaschinenoptimierer nennen sie sich. Schon wenn 50 Internetseiten sich gezenseitig empfehlen, so heißt es, steige man bei den Google-Suchlisten weit nach oben. Die Garagen-Zeiten sind bei Google längst vorbei, der lässig studentische Charme soll geblieben sein, berichten Besucher von Mountain View, dem Gewerbegebiet eine Autostunde von San Francisco entfernt, besser bekannt als Silicon Valley. Dort, hinter der hellgelben Fassade eines zweitstöckigen Fabrikgebäudes, arbeiten mittlerweile 1000 Mitarbeiter aus 34 Ländern. Darunter auch Informatiker, die ausschließlich versuchen, den Suchmaschinenoptimierern immer neue Hürden zu bauen. Die beiden Zentralrechner allerdings, zusammengesetzt aus 10 000 Einzelrechnern, befinden sich woanders. Einer an der Ost-, derandere an der Westküste der USA. Die genauen Standorte werden nicht verraten. Aus Angst vor Sabotageakten. Einen dritten soll es demnächstin Irland geben. Alles schön und gut. Aber an Kreativltät hatte es Internet-Firmen meist nicht gefehlt, sondern an Einnahmen. Auch bei Google lief es zunächst schleppend. Doch Brin und Page konnten wenigstens ihre Suchtechnik verkaufen. Dann verfielen sie auf eine weitere Idee. Statt irgendwelcher Werbebotschaften, bemüht sich Google die zum Inhalt der Seite passenden zu platzieren. Wer also "Neuwagen" eintippt, soll eben auch Neuwagenwerbung auf seinem Schirm finden. Klickt er die auch noch an, verdient Google Geld. Die meisten Anzeigen bringen pro Klick zwar zuweilen nur 0,05 Cent, doch das läppert sich.
    Date
    3. 5.1997 8:44:22
    13. 6.2004 14:34:22
  6. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.009937372 = product of:
      0.03974949 = sum of:
        0.03974949 = sum of:
          0.027416198 = weight(_text_:software in 4871) [ClassicSimilarity], result of:
            0.027416198 = score(doc=4871,freq=6.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.1518359 = fieldWeight in 4871, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
          0.012333291 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
            0.012333291 = score(doc=4871,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.07738023 = fieldWeight in 4871, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=4871)
      0.25 = coord(1/4)
    
    Abstract
    Die Onlinesuche im Internet bringt zwar viele, oft aber nur wenige nützliche Resultate. Nun sollen Websurfer dank verbesserter Software maßgeschneiderte Suchergebnisse erhalten - nicht nur bei Texten, sondern auch bei Bildern und Musikstücken
    Content
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Date
    22. 1.2006 18:34:49
  7. Eggeling, T.; Kroschel, A.; Löbering, C.; Wolski, D.: Effektive Suche : Suchmaschinen und News-Archive (2001) 0.01
    0.0098929675 = product of:
      0.03957187 = sum of:
        0.03957187 = product of:
          0.07914374 = sum of:
            0.07914374 = weight(_text_:software in 979) [ClassicSimilarity], result of:
              0.07914374 = score(doc=979,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43831247 = fieldWeight in 979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=979)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    Behandelt werden: Allgemeine Suchstrategien - Dateisuche - Bildersuche - Suche nach Software - Suche nach Musik und Multimediadateien - Newsgroups
  8. bs: Startschuss zur Desktop Razzia (2005) 0.01
    0.0098929675 = product of:
      0.03957187 = sum of:
        0.03957187 = product of:
          0.07914374 = sum of:
            0.07914374 = weight(_text_:software in 3251) [ClassicSimilarity], result of:
              0.07914374 = score(doc=3251,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.43831247 = fieldWeight in 3251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3251)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    Software: Desktop-Suchmaschinen
  9. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.01
    0.008800637 = product of:
      0.035202548 = sum of:
        0.035202548 = sum of:
          0.019785935 = weight(_text_:software in 3221) [ClassicSimilarity], result of:
            0.019785935 = score(doc=3221,freq=2.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.10957812 = fieldWeight in 3221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3221)
          0.015416614 = weight(_text_:22 in 3221) [ClassicSimilarity], result of:
            0.015416614 = score(doc=3221,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.09672529 = fieldWeight in 3221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=3221)
      0.25 = coord(1/4)
    
    Content
    Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen"
    Date
    22. 1.2005 17:11:04
  10. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.01
    0.00867963 = product of:
      0.03471852 = sum of:
        0.03471852 = sum of:
          0.022385232 = weight(_text_:software in 3684) [ClassicSimilarity], result of:
            0.022385232 = score(doc=3684,freq=4.0), product of:
              0.18056466 = queryWeight, product of:
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.045514934 = queryNorm
              0.123973496 = fieldWeight in 3684, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.9671519 = idf(docFreq=2274, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
          0.012333291 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
            0.012333291 = score(doc=3684,freq=2.0), product of:
              0.15938555 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045514934 = queryNorm
              0.07738023 = fieldWeight in 3684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=3684)
      0.25 = coord(1/4)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Date
    22. 6.2005 9:52:00
  11. bay: Google übernimmt Deja-Archiv (2001) 0.01
    0.007914375 = product of:
      0.0316575 = sum of:
        0.0316575 = product of:
          0.063315 = sum of:
            0.063315 = weight(_text_:software in 5636) [ClassicSimilarity], result of:
              0.063315 = score(doc=5636,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.35064998 = fieldWeight in 5636, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5636)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Deja.com hat sein Archiv mit Diskussionsbeiträgen aus dem Usenet an die Suchmaschine Google verkauft. Die neue Bedienoberfläche (groups.google.com) prüft noch nicht die 500 Millionen Texte, die Deja seit 1995 gesammelt hat; sie werden schrittweise in die eigene, sechs Monate alte Datenbank integriert. Das Usenet lässt sich über das Web (netnews.web.de) oder besser spezielle Software nutzen, etwa (Free) Agent (www.forteinc.com)
  12. bs: ¬Der gläserne PC (2005) 0.01
    0.007914375 = product of:
      0.0316575 = sum of:
        0.0316575 = product of:
          0.063315 = sum of:
            0.063315 = weight(_text_:software in 3252) [ClassicSimilarity], result of:
              0.063315 = score(doc=3252,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.35064998 = fieldWeight in 3252, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3252)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Series
    Software: Neuerscheinungen
  13. Price, A.: Five new Danish subject gateways under development (2000) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 4878) [ClassicSimilarity], result of:
              0.061666455 = score(doc=4878,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 4878, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4878)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 6.2002 19:41:31
  14. Eggeling, T.; Kroschel, A.: Alles finden im Web (2000) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 4884) [ClassicSimilarity], result of:
              0.061666455 = score(doc=4884,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 4884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4884)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    9. 7.2000 14:06:22
  15. Poulakos, I.: ¬"Die Leute suchen immer dasselbe" (2001) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 5541) [ClassicSimilarity], result of:
              0.061666455 = score(doc=5541,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 5541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5541)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    18. 1.1997 12:15:22
  16. Breyer, K.: Kommerz statt Information (2002) 0.01
    0.007708307 = product of:
      0.030833228 = sum of:
        0.030833228 = product of:
          0.061666455 = sum of:
            0.061666455 = weight(_text_:22 in 568) [ClassicSimilarity], result of:
              0.061666455 = score(doc=568,freq=2.0), product of:
                0.15938555 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045514934 = queryNorm
                0.38690117 = fieldWeight in 568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=568)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    9. 5.2002 21:21:22
  17. ibc: Resultate im Tableau : Suchmaschine ordnet Ergebnisse grafisch (2001) 0.01
    0.006995385 = product of:
      0.02798154 = sum of:
        0.02798154 = product of:
          0.05596308 = sum of:
            0.05596308 = weight(_text_:software in 5959) [ClassicSimilarity], result of:
              0.05596308 = score(doc=5959,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30993375 = fieldWeight in 5959, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5959)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Wer per Suchmaschine im Internet nach einem bestimmten Begriff forscht, hat unter Umständen anschließend zwar jede Menge Dokumente gefunden - aber dabei die Übersicht verloren. Ist der Suchbegriff gar noch relativ allgemein, kommen meist Hunderte von Ergebnisseiten zusammen, viele davon auch mehrfach aufgeführt. Forscher an der University of Illinois in Champaign haben jetzt eine Software entwickelt, die das Auswerten von Suchmaschinen-Ergebnissen erleichtern soll. VisIT heißt das Programm, das die gefundenen Internetadressen nicht als Liste darstellt, sondern als Grafik. Farbige Rechtecke symbolisieren die einzelnen Seiten, und durch Pfeile werden inhaltliche Zusammenhänge verdeutlicht; so werden besonders relevante Ergebnisse besser erkennbar. Geht der Nutzer mit dem Mauszeiger auf eine Adresse, erhält er in einem sich öffnenden Fenster kurze Informationen zum Inhalt der Seite. Innerhalb der Grafik kann er dann die einzelnen Ergebnisse nach Wichtigkeit anordnen und markieren. Komfortabel ist VisIT auch dadurch, dass mehrere Suchmaschinen gleichzeitig nach einem bestimmten Begriff durchforstet werden und nicht, wie meist üblich, nacheinander. Außerdem sortiert das Programm identische Ergebnisse aus. Das lästige Blättern in einer langen Liste entfällt, da alle gefundenen Adressen auf einen Blick zu sehen sind und dort direkt per Mausklick angewählt werden können. Unter der Adresse http://www.visit.uiuc.edu lässt sich die Beta-Version der Software kostenlos herunterladen. Sie funktioniert zur Zeit nur unter Windows, aber Linux- und Mac-Versionen sind in Vorbereitung
  18. Kuhlen, R.: Macht Google autonom? : Zur Ambivalenz informationeller Autonomie (2005) 0.01
    0.006995385 = product of:
      0.02798154 = sum of:
        0.02798154 = product of:
          0.05596308 = sum of:
            0.05596308 = weight(_text_:software in 3531) [ClassicSimilarity], result of:
              0.05596308 = score(doc=3531,freq=4.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30993375 = fieldWeight in 3531, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3531)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Jeder weiß, was Google und andere Anbieter von Metainformationen leisten. Keine Frage, dass sie die Möglichkeit zum informationell autonomen Handeln erhöhen. Jeder denkt dabei zuerst an die Suchmaschine Google. Was immer auch deren unzählige Bewertungen im Detail besagen - einig sind sich in der Praxis alle: Man benutzt Google. Und die Konsequenz ist auch klar: Mit den Websuchdiensten, allen voran Google, hat sich die Art, wie wir auf Informationen zugreifen, und unsere Einstellung zu Wissen und Information grundlegend verändert. Aber Suchmaschinen sind inzwischen nicht mehr nur zum Suchen da: Google und seine Konkurrenten erweitern ihr Angebot, indem sie die Produkte anderer übernehmen und weiterentwickeln. Ein Beispiel ist die Bildersuch- und -verwaltungssoftware von Picasa. Der Vorteil für den Verbraucher ist dabei, dass die Software jetzt kostenlos nutzbar und in den Google-Blogger-Service und natürlich den Google-Mail-Dienst Gmail integrierbar ist. Nutzen werden viele auch die Google-DesktopSoftware, mit der die Dateien auf dem eigenen Rechner komfortabel durchsucht werden können - bevorzugt solche, die mit Microsoft-Software erstellt wurden. Und so wird es weiter gehen: Googles Ziel »to organize the world's information, making it universally accessible and useful« ist fest im Blick. Zukünftig wird Googles Angebot eine virtuelle Bibliothek einschließen, in der die gesamten Bestände großer Hochschulbibliotheken wie Stanford, Harvard oder Oxford elektronisch aufbereitet zugänglich sind - zwei Jahrzehnte wird es nach Schätzung von Google dauern, bis dieses Projekt abgeschlossen ist. Der Einstieg in das Publikationsgeschäft wurde jüngst mit CrossRef Search gemacht: Google bereitet die Daten eines kommerziellen Dokumentlieferdienst auf und bietet die Ergebnisse auf der Website der beteiligten Verlage im Google-Format zur Suche an.
  19. Finden, ohne zu suchen (2004) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 2979) [ClassicSimilarity], result of:
              0.055400617 = score(doc=2979,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 2979, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2979)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Content
    NextLinks schlägt selbst ständig jeweils zehn weitere Webadressen vor, der User muss keinerlei Suchbegriffe eingeben. Möglich wird dies durch die Verwendung von Algorithmen zum Auffinden semantisch ähnlicher Strukturen. Wie bei einer "normalen" Suchmaschine werden zunächst viele Mio. Webseiten ausgewertet. Mittels statistischem Verfahren können daraus Ähnlichkeiten ermittelt und in einer aktuellen Datenbank gespeichert werden. Auf diese Informationsquelle greift NextLinks regelmäßig zurück. Das anonyme Surfverhalten oder persönliche Daten werden dabei nicht gespeichert. Die Software läuft ab Windows 98 und unterstützt alle aktuellen Versionen von Windows-Internet-Explorer, Netscape, Mozilla und Opera. NextLinks ist kostenlos und unter http://wortschatz.unileipziq.de/nextlinks erhältlich.
  20. Pieper, D.; Summann, F.: Bielefeld Academic Search Engine (BASE) : an end-user oriented institutional repository search service (2006) 0.01
    0.006925077 = product of:
      0.027700309 = sum of:
        0.027700309 = product of:
          0.055400617 = sum of:
            0.055400617 = weight(_text_:software in 2587) [ClassicSimilarity], result of:
              0.055400617 = score(doc=2587,freq=2.0), product of:
                0.18056466 = queryWeight, product of:
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.045514934 = queryNorm
                0.30681872 = fieldWeight in 2587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.9671519 = idf(docFreq=2274, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2587)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - The purpose of this paper is to describe the activities of Bielefeld University Library in establishing OAI based repository servers and in using OAI resources for end-user-oriented search services like Bielefeld Academic Search Engine (BASE). Design/methodology/approach - Discusses OAI based repository servers. Findings - BASE is able to integrate external functions of Google Scholar. The search engine technology can replace or amend the search functions of a given repository software. BASE can also be embedded in external repository environments. Originality/value - The paper provides an overview of the functionalities of BASE and gives insight into the challenges that have to be faced when harvesting and integrating resources from multiple OAI servers.

Languages

  • d 105
  • e 37

Types

  • a 122
  • m 11
  • el 9
  • x 2
  • s 1
  • More… Less…