Search (38 results, page 2 of 2)

  • × theme_ss:"Internet"
  • × theme_ss:"Suchmaschinen"
  1. Bertelmann, R.; Rusch-Feja, D.: Informationsretrieval im Internet : Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote (1997) 0.01
    0.012376824 = product of:
      0.024753649 = sum of:
        0.024753649 = product of:
          0.049507298 = sum of:
            0.049507298 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
              0.049507298 = score(doc=217,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2708308 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=217)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    9. 7.2000 11:31:22
  2. Hsieh-Yee, I.: ¬The retrieval power of selected search engines : how well do they address general reference questions and subject questions? (1998) 0.01
    0.012376824 = product of:
      0.024753649 = sum of:
        0.024753649 = product of:
          0.049507298 = sum of:
            0.049507298 = weight(_text_:22 in 2186) [ClassicSimilarity], result of:
              0.049507298 = score(doc=2186,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2708308 = fieldWeight in 2186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2186)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    25.12.1998 19:22:51
  3. Wiley, D.L.: Beyond information retrieval : ways to provide content in context (1998) 0.01
    0.012376824 = product of:
      0.024753649 = sum of:
        0.024753649 = product of:
          0.049507298 = sum of:
            0.049507298 = weight(_text_:22 in 3647) [ClassicSimilarity], result of:
              0.049507298 = score(doc=3647,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2708308 = fieldWeight in 3647, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3647)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Database. 21(1998) no.4, S.18-22
  4. Notess, G.R.: Mega-searching from the desktop (1997) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 433) [ClassicSimilarity], result of:
              0.0424972 = score(doc=433,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 433, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=433)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Online. 21(1997) no.3, S.89-91
  5. ¬The Internet searcher's handbook : locating information, people and software (1996) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 2935) [ClassicSimilarity], result of:
              0.0424972 = score(doc=2935,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 2935, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2935)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Online 20(1996) no.4, S.94 (J.A. Copler); College and research libraries 57(1996) no.4, S.394-395. (B.A. Burg); Managing information 3(1996) nos.7/8, S.47 (Z. Woodley); Special libraries 87(1996) no.3, S.237-238 (M.A. McFarland); JASIS 49(1998) no.6, S.567 (V. Jaffe)
  6. Hiom, D.: SOSIG : an Internet hub for the social sciences, business and law (2000) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 4871) [ClassicSimilarity], result of:
              0.0424972 = score(doc=4871,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4871)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Online information review. 24(2000) no.1, S.54-58
  7. Online-Findbücher, Suchmaschinen und Portale : Beiträge des 6. Archivwissenschaftlichen Kolloquiums der Archivschule Marburg (2002) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 6562) [ClassicSimilarity], result of:
              0.0424972 = score(doc=6562,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 6562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6562)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Butler, R.P.: Copyright law and organizing the Internet (2004) 0.01
    0.0106243 = product of:
      0.0212486 = sum of:
        0.0212486 = product of:
          0.0424972 = sum of:
            0.0424972 = weight(_text_:online in 16) [ClassicSimilarity], result of:
              0.0424972 = score(doc=16,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.2682499 = fieldWeight in 16, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=16)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    United States Intellectual Property law, specifically that covering copyright, has important implications for American libraries. This article considers the following: fair use and the Internet; current and prospective law and electronic media, especially concerning interlibrary loan and online reserves; publishers and users; and the impact that copyright law has on the role of the library and the issue of free access.
  9. Schultheiß, G.F.: Google, Goggle, Google, ... : Whose Mind is it Anywhere? Identifying and Meeting Divers User Needs in the Ongoing Sattle for Mindshare - NFAIS 47th Annual Conference, Philadelphia, USA vom 27. Februar bis 1. März 2005 (2005) 0.01
    0.010608707 = product of:
      0.021217413 = sum of:
        0.021217413 = product of:
          0.042434826 = sum of:
            0.042434826 = weight(_text_:22 in 3421) [ClassicSimilarity], result of:
              0.042434826 = score(doc=3421,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.23214069 = fieldWeight in 3421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3421)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 5.2005 13:38:26
  10. feu: Wildes Browsen (2002) 0.01
    0.009390644 = product of:
      0.018781288 = sum of:
        0.018781288 = product of:
          0.037562575 = sum of:
            0.037562575 = weight(_text_:online in 4914) [ClassicSimilarity], result of:
              0.037562575 = score(doc=4914,freq=4.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.23710167 = fieldWeight in 4914, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4914)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Eine Enttäuschung mehr: Die Studierenden von heute unterscheiden sich nicht vom Durchschnittsbürger, wenn sie via Computer Wissenswertes aufspüren. Das belegt eine Studie des Landesinstituts Sozialforschungsstelle Dortmund, das im Auftrag des Bundesbildungsministeriums bei Studierenden an Universitäten und Fachhochschulen vorfühlte. Demnach lässt die "Nutzung elektronischer wissenschaftlicher Information in der Hochschulausbildung" ziemlich viele Wünsche offen. Wer von rosigen Zeiten mit virtuellen Universitäten, vernetzten Rechnern und multimedialen Lehrbüchern schwärmt, hat sicher mehr erhofft als das wilde "Browsen" des akademischen Nachwuchses. Der Dortmunder Erhebung zufolge werden die versteckten Schätze in Online-Bibliothekskatalogen und elektronischen Fachzeitschriften, bei Volltexttrechercheund Bestelldiensten und in Fachdatenbanken nur unzureichend gehoben, weil es an Findigkeit und Kompetenz in Informationsbeschaffung mangelt. Systematische Suche ist eher die Ausnahme. Adressen wie der Karlsruher virtuelle Katalog und Online-Datenbanken von Fachinformationszentren? So gut wie noch nie gehört. Stattdessen verlassen sich die Studierenden hauptsächlich auf konventionelle, vertraute Pfade im Internet. Am häufigsten bedienen sie sich der üblichen Suchmaschinen. Die nächsten Ränge auf der Beliebtheitsskala: E-Mail-Austausch mit Kommilitonen, Recherche auf dem lokalen Server der Unibibliothek. Vom Ertrag des Stöberns sind die Studierenden nicht gerade begeistert: viel Durcheinander und nicht Verwertbares, reichlich Zufälliges, eine Menge Frust. Ehrlich bekennen 32 Prozent ihr "geringes" Wissen, um in elektronischen Quellen an Brauchbares heranzkommen. 44,4 Prozent schätzen ihren Fundus als "mittel" ein. Auch die Hochschullehrer mäkeln, die Qualität des elektronisch recherchierten Materials sei dürftig. Man merke das an schriftlichen Arbeiten. Die Lernenden könnten häufig nicht einschätzen, was bei der Suche herausspringe und ob das aus dem Netz Gefischte relevant sei. Der springende Punkt: Das Gros der Studierenden bringt sich rudimentäre "Informationskompetenz" selbst bei - durch Versuch und Irrtum. Wer nicht weiterkommt, sucht Rat bei Kommilitonen. Nur 15,7 Prozent der Befragten hat sich vom Bibliothekspersonal professionell helfen lassen. Was liegt also näher als der Ruf nach Aufnahme des Themas ins Grundlagen-Lehrprogramm?
  11. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.007501489 = product of:
      0.015002978 = sum of:
        0.015002978 = product of:
          0.030005956 = sum of:
            0.030005956 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.030005956 = score(doc=3080,freq=4.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
  12. Drabenstott, K.M.: Web search strategies (2000) 0.01
    0.007072471 = product of:
      0.014144942 = sum of:
        0.014144942 = product of:
          0.028289884 = sum of:
            0.028289884 = weight(_text_:22 in 1188) [ClassicSimilarity], result of:
              0.028289884 = score(doc=1188,freq=2.0), product of:
                0.18279788 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05220068 = queryNorm
                0.15476047 = fieldWeight in 1188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1188)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.1997 19:16:05
  13. Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003) 0.01
    0.006900686 = product of:
      0.013801372 = sum of:
        0.013801372 = product of:
          0.027602743 = sum of:
            0.027602743 = weight(_text_:online in 4558) [ClassicSimilarity], result of:
              0.027602743 = score(doc=4558,freq=6.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.17423344 = fieldWeight in 4558, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4558)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
    Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
  14. Large, A.; Beheshti, J.; Moukdad, H.: Information seeking on the Web : navigational skills of grade-six primary school students (1999) 0.01
    0.0066401875 = product of:
      0.013280375 = sum of:
        0.013280375 = product of:
          0.02656075 = sum of:
            0.02656075 = weight(_text_:online in 6545) [ClassicSimilarity], result of:
              0.02656075 = score(doc=6545,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.16765618 = fieldWeight in 6545, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6545)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Reports on research into the information-seeking habits of primary schoolchildren conducted under operational conditions. Three workstations with Internet access were installed in a grade-six classroom in suburban Montreal. After a short introductory training session for the entire group followed by short individual sessions for each student, 53 students, working in small groups, used these workstations over a six-week period to seek information on the Web of relevance to a class project assigned by their teacher. The project dealt with the Winter Olympic Games (recently completed at that time). The student objective was to locate relevant information for a poster and an oral presentation on one of the sports represented at the Games. All screen activity was directly captured on videotape and group conversations at the workstation were audiotaped. Demographic and computer literacy information was gathered in a questionnaire. This paper presents a map of the information-seeking landscape based upon an analysis of the descriptive statistics gathered from the Web searches. It reveals that the novice users favored browsing over analytic search strategies, although they did show some sophistication in the construction of the latter. Online help was ignored. The children demonstrated a very high level of interactivity with the interface at the expense of thinking, planning and evaluating. This is a preliminary analysis of data which will subsequently be expanded by the inclusion of qualitative data
  15. Sherman, C.; Price, G.: ¬The invisible Web : uncovering information sources search engines can't see (2001) 0.01
    0.0066401875 = product of:
      0.013280375 = sum of:
        0.013280375 = product of:
          0.02656075 = sum of:
            0.02656075 = weight(_text_:online in 62) [ClassicSimilarity], result of:
              0.02656075 = score(doc=62,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.16765618 = fieldWeight in 62, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=62)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Enormous expanses of the Internet are unreachable with standard Web search engines. This book provides the key to finding these hidden resources by identifying how to uncover and use invisible Web resources. Mapping the invisible Web, when and how to use it, assessing the validity of the information, and the future of Web searching are topics covered in detail. Only 16 percent of Net-based information can be located using a general search engine. The other 84 percent is what is referred to as the invisible Web-made up of information stored in databases. Unlike pages on the visible Web, information in databases is generally inaccessible to the software spiders and crawlers that compile search engine indexes. As Web technology improves, more and more information is being stored in databases that feed into dynamically generated Web pages. The tips provided in this resource will ensure that those databases are exposed and Net-based research will be conducted in the most thorough and effective manner. Discusses the use of online information resources and problems caused by dynamically generated Web pages, paying special attention to information mapping, assessing the validity of information, and the future of Web searching.
  16. Fu, T.; Abbasi, A.; Chen, H.: ¬A focused crawler for Dark Web forums (2010) 0.01
    0.0066401875 = product of:
      0.013280375 = sum of:
        0.013280375 = product of:
          0.02656075 = sum of:
            0.02656075 = weight(_text_:online in 3471) [ClassicSimilarity], result of:
              0.02656075 = score(doc=3471,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.16765618 = fieldWeight in 3471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3471)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    The unprecedented growth of the Internet has given rise to the Dark Web, the problematic facet of the Web associated with cybercrime, hate, and extremism. Despite the need for tools to collect and analyze Dark Web forums, the covert nature of this part of the Internet makes traditional Web crawling techniques insufficient for capturing such content. In this study, we propose a novel crawling system designed to collect Dark Web forum content. The system uses a human-assisted accessibility approach to gain access to Dark Web forums. Several URL ordering features and techniques enable efficient extraction of forum postings. The system also includes an incremental crawler coupled with a recall-improvement mechanism intended to facilitate enhanced retrieval and updating of collected content. Experiments conducted to evaluate the effectiveness of the human-assisted accessibility approach and the recall-improvement-based, incremental-update procedure yielded favorable results. The human-assisted approach significantly improved access to Dark Web forums while the incremental crawler with recall improvement also outperformed standard periodic- and incremental-update approaches. Using the system, we were able to collect over 100 Dark Web forums from three regions. A case study encompassing link and content analysis of collected forums was used to illustrate the value and importance of gathering and analyzing content from such online communities.
  17. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.005634386 = product of:
      0.011268772 = sum of:
        0.011268772 = product of:
          0.022537544 = sum of:
            0.022537544 = weight(_text_:online in 5987) [ClassicSimilarity], result of:
              0.022537544 = score(doc=5987,freq=4.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.142261 = fieldWeight in 5987, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5987)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
  18. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.00
    0.0046481313 = product of:
      0.009296263 = sum of:
        0.009296263 = product of:
          0.018592525 = sum of:
            0.018592525 = weight(_text_:online in 2936) [ClassicSimilarity], result of:
              0.018592525 = score(doc=2936,freq=2.0), product of:
                0.15842392 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.05220068 = queryNorm
                0.11735933 = fieldWeight in 2936, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2936)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.