Search (40 results, page 1 of 2)

  • × theme_ss:"Suchmaschinen"
  • × theme_ss:"Internet"
  1. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.02
    0.019108284 = product of:
      0.04777071 = sum of:
        0.024071895 = weight(_text_:den in 3080) [ClassicSimilarity], result of:
          0.024071895 = score(doc=3080,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.23270628 = fieldWeight in 3080, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.023698812 = product of:
          0.035548218 = sum of:
            0.014802556 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.014802556 = score(doc=3080,freq=2.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
            0.020745663 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.020745663 = score(doc=3080,freq=4.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.6666667 = coord(2/3)
      0.4 = coord(2/5)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    Date
    24. 8.2016 9:29:24
  2. Sauer, D.: Alles schneller finden (2001) 0.02
    0.015823722 = product of:
      0.07911861 = sum of:
        0.07911861 = product of:
          0.118677914 = sum of:
            0.06977992 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.06977992 = score(doc=6835,freq=4.0), product of:
                0.12695599 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036090754 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.048897993 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.048897993 = score(doc=6835,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.2 = coord(1/5)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  3. Seiffert, F.: ¬Das "Virtuelle Bücherregal NRW" : Literatursuche mit der einfachsten Suchstrategie: Google und Co. (2003) 0.02
    0.015570762 = product of:
      0.038926903 = sum of:
        0.010557904 = product of:
          0.03167371 = sum of:
            0.03167371 = weight(_text_:f in 1641) [ClassicSimilarity], result of:
              0.03167371 = score(doc=1641,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.22018565 = fieldWeight in 1641, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1641)
          0.33333334 = coord(1/3)
        0.028369 = weight(_text_:den in 1641) [ClassicSimilarity], result of:
          0.028369 = score(doc=1641,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 1641, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
      0.4 = coord(2/5)
    
    Abstract
    In jüngerer Zeit wird immer häufiger die »Ein-Klick-Mentalität« der Unkundigen kritisiert und auf die wesentlichen besseren Suchergebnisse verwiesen, die Kundige mit Digitalen Bibliotheken und Metasuchen erzielen können. Ein Ausweg könnte die Strategie sein, sich diese Ein-Klick-Mentalität zunutze zu machen und die Unkundigen über Google und Co. zu den »teuren Schätzen«, den elektronischen Inhalten und Hinweisen zur wissenschaftlichen Literatur, zu führen.
    Content
    Kommentar der Redaktion: "Schon heute sind große Bereiche des Internet über Suchmaschinen nicht recherchierbar, obwohl die betreffenden Angebote relevante und aktuelle Informationen enthalten können. Bei diesen für Suchmaschinen »unsichtbaren« Inhalten im so genannten Deep Web handelt es sich in der Regel um dynamische Seiten, die erst durch konkrete Anfragen eines Internetnutzers erzeugt werden. Die dabei meist aus Datenbanken abgerufenen Informationen (zum Beispiel Fahrpläne, viele Warenkataloge oder bibliographische Bestandsnachweise) sind nur temporär und ausschließlich für den Anfragenden im Internet verfügbar. Die übrige Zeit bleiben die Informationen für Suchmaschinen wie Google oder Alltheweb »verborgen« (aus diesem Grund wird das Deep Web auch als Invisible Web bezeichnet), oder ihre Erschließung wäre für die Suchmaschinenbetreiber zu aufwendig. Auch die vom Hochschulbibliothekszentrum Nordrhein Westfalen (www. hbz-nrw.de) vorgehaltenen bibliographischen Informationen und Bestandsnachweise konnten bislang im Internet nur über die Schnittstelle der Datenbank recherchiert werden. Das HBZ hat sich mit dem Angebot des Virtuellen Bücherregals NRW zum Ziel gesetzt, die in der HBZ-Verbunddatenbank abgelegten Informationen für die gängigen Internetsuchmaschinen »sichtbar« zu machen. Der vorliegende Beitrag erläutert ausführlich, wie die Titeldaten in separate HTMLSeite überführt wurden. Und er gibt vor allem eine Antwort auf die spannende Frage, ob die Suchmaschinen diesen »Köder« auch wirklich geschluckt und infolgedessen neue Kundschaft zum HBZ geführt haben." (rei)
  4. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.01
    0.014607467 = product of:
      0.036518667 = sum of:
        0.028369 = weight(_text_:den in 3423) [ClassicSimilarity], result of:
          0.028369 = score(doc=3423,freq=6.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 3423, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.008149666 = product of:
          0.024448996 = sum of:
            0.024448996 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.024448996 = score(doc=3423,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
  5. Bertelmann, R.; Rusch-Feja, D.: Informationsretrieval im Internet : Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote (1997) 0.01
    0.013735968 = product of:
      0.03433992 = sum of:
        0.02293039 = weight(_text_:den in 217) [ClassicSimilarity], result of:
          0.02293039 = score(doc=217,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2216712 = fieldWeight in 217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=217)
        0.011409531 = product of:
          0.034228593 = sum of:
            0.034228593 = weight(_text_:22 in 217) [ClassicSimilarity], result of:
              0.034228593 = score(doc=217,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.2708308 = fieldWeight in 217, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=217)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das gezielte Suchen im Internet findet in erster Linie mit Hilfe der Suchmaschinen statt. Daneben gibt es aber bereits eine Fülle von strukturierten Informationsangeboten, aufbereiteten Listen und Sammelstellen, die als Clearinghouse, Subject Gateway, Subject Tree oder Resource Pages bezeichnet werden. Solche intellektuell erstellten Übersichten geben in der Regel bereits Hinweise zu Inhalt und fachlichem Niveau der Quelle. Da die Art und Weise der Aufbereitung bei den Sammelstellen sehr unterschiedlich funktioniert, ist die Kenntnis ihrer Erschließungskriterien für ein erfolgreiches Retrieval unverzichtbar
    Date
    9. 7.2000 11:31:22
  6. Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003) 0.01
    0.012934144 = product of:
      0.03233536 = sum of:
        0.0063347416 = product of:
          0.019004224 = sum of:
            0.019004224 = weight(_text_:f in 4558) [ClassicSimilarity], result of:
              0.019004224 = score(doc=4558,freq=2.0), product of:
                0.14385001 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.036090754 = queryNorm
                0.13211139 = fieldWeight in 4558, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4558)
          0.33333334 = coord(1/3)
        0.026000619 = weight(_text_:den in 4558) [ClassicSimilarity], result of:
          0.026000619 = score(doc=4558,freq=14.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25135154 = fieldWeight in 4558, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4558)
      0.4 = coord(2/5)
    
    Content
    "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
    Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
  7. Schultheiß, G.F.: Google, Goggle, Google, ... : Whose Mind is it Anywhere? Identifying and Meeting Divers User Needs in the Ongoing Sattle for Mindshare - NFAIS 47th Annual Conference, Philadelphia, USA vom 27. Februar bis 1. März 2005 (2005) 0.01
    0.011773688 = product of:
      0.029434219 = sum of:
        0.01965462 = weight(_text_:den in 3421) [ClassicSimilarity], result of:
          0.01965462 = score(doc=3421,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.19000389 = fieldWeight in 3421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.009779599 = product of:
          0.029338794 = sum of:
            0.029338794 = weight(_text_:22 in 3421) [ClassicSimilarity], result of:
              0.029338794 = score(doc=3421,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.23214069 = fieldWeight in 3421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3421)
          0.33333334 = coord(1/3)
      0.4 = coord(2/5)
    
    Abstract
    Das Herausfinden und Lösen verschiedener Nutzerbedürfnisse als Hauptthema der Konferenz warf gleich mehrere Fragen auf: Erstens, wer sind die Nutzer? Zweitens, was wollen sie? Und wer beurteilt das und aus welcher Sicht? Welche Auswirkungen haben die realisierten Maßnahmen? Die etwa 200 Teilnehmer aus neun Nationen, davon 21 aus europäischen Ländern, davon drei aus Deutschland, wurden in sechs Vortragsblöcken mit einer Vielzahl von Aspekten konfrontiert, die wie so oft in unserer rasanten Entwicklung im IT-Bereich nur Lösungsansätze aufzeigten oder die Schwierigkeiten mit den Angeboten. Herausragendes Merkmal war der mehrfache Bezug auf die Marke "Google"!
    Date
    22. 5.2005 13:38:26
  8. Bredemeier, W.: "Strategische Deökonomisierung und Demokratisierung der Informationszugänge" : Eine Alternative zu Google und den Sozialen Medien? (2022) 0.01
    0.008023965 = product of:
      0.040119827 = sum of:
        0.040119827 = weight(_text_:den in 598) [ClassicSimilarity], result of:
          0.040119827 = score(doc=598,freq=12.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38784382 = fieldWeight in 598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=598)
      0.2 = coord(1/5)
    
    Abstract
    Gibt es eine Alternative zu Google? Sollte es sie geben? Die vorherrschende Kritik an den HighTech-Konzernen setzt an ihrer Marktmacht und deren Missbrauch an. Diesen ist politisch mit "Regulierung", "Sanktionierung" und "Sicherstellung von mehr Wettbewerb" zu begegnen. Evgeny Morozov, der aus Weißrussland stammende Technologie- und Internet-Kritiker, wurde mit den Büchern "The Net Delusion" (2011) und "To Save Everything Click Here" (2013), speziell in Deutschland als FAZ-Kolumnist bekannt. Mit seiner Kritik an den Tech-Konzernen setzt er grundsätzlicher als die in der öffentlichen Debatte dominierenden wirtschaftlichen Zusammenhänge an: Er fragt nach der Qualität, Relevanz und Originalität der suchbar und verfügbar gemachten Inhalte. Folgen wir ihm, so würde mehr Wettbewerb unter Suchmaschinen wenig nützen, wenn sich die neuen Player in den Kriterien, auf die ihre Algorithmen festgelegt sind, nicht von Google unterscheiden (und die aus technischer Sicht womöglich schlechter als Google sind).
    Morozov hat zudem eine Alternative zu Google geschaffen. Zumindest wird sein Dienst so in Teilen der Öffentlichkeit und im persönlichen Umfeld von Morozov wahrgenommen. Das Angebot trägt den Namen "The Syllabus" (auf Deutsch: "Das Register" oder "Das Verzeichnis"). www.the-syllabus.com. Das ist nach Sara Getz als Frontstellung gegen die "Attention Economy" zu verstehen, in der die Anbieter um die knappe Aufmerksamkeit ihrer Nutzer ringen. Wie erfolgreich sie dabei sind, wird nach Auflagenhöhen, Einschaltquoten, Klicks und "Likes" gemessen. Diese stellen einen Anreiz dar, kürzer, schriller, boulevardesker und oberflächlicher zu schreiben. Im Folgenden werden Beschreibungen und Bewertungen von "The Syllabus" seitens Sara Getz und Niklas Meek wiedergegeben. Hinzu kommen die Selbstbeschreibungen von Syllabus auf der eigenen Webseite und meine persönliche Bilanz, nachdem ich "The Syllabus" ein knappes Jahr genutzt habe.
  9. Hilberer, T.: Über die Zugänglichkeit der Informationen im Internet : Die Rolle der Bibliotheken (1999) 0.01
    0.007861848 = product of:
      0.03930924 = sum of:
        0.03930924 = weight(_text_:den in 4101) [ClassicSimilarity], result of:
          0.03930924 = score(doc=4101,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 4101, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.09375 = fieldNorm(doc=4101)
      0.2 = coord(1/5)
    
    Footnote
    Bezugnahme auf den Artikel: Lawrence, S. u. C.L. Giles: Accessibility of information on the web. In: Nature. No.400 vom 8.7.1999, S.107-109.
  10. Oehler, A.: Analyse von Suchdiensten im Internet : Kriterien und Probleme (1998) 0.01
    0.007861848 = product of:
      0.03930924 = sum of:
        0.03930924 = weight(_text_:den in 6610) [ClassicSimilarity], result of:
          0.03930924 = score(doc=6610,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.38000777 = fieldWeight in 6610, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=6610)
      0.2 = coord(1/5)
    
    Abstract
    Die enorme Menge an im Internet verfügbaren Daten und die gleichzeitig fehlende Möglichkeit einer zentralen Koordination der Inhalte haben dazu geführt, daß zahlreiche Dienste für die Suche und den Nachweis von Internetressourcen (im folgenden Suchdienste genannt) entstanden sind. Gegenwärtig existieren Hunderte von Suchdiensten mit großen Unterschieden in der Arbeitsweise, dem Umfang und den angebotenen Funktionalitäten. Die Zahl der großen, globalen Suchdienste ist zwar in den letzten Jahren relativ konstant geblieben, doch sind gerade diese Dienste durch ständige Veränderungen gekennzeichnet. Sie bieten immer mehr Retrievalfunktionen an und erweitern den Umfang an Zusatzangeboten, die über die reine Suche in einer Datenbank hinausgehen, ständig. Dies führt dazu, daß Informationssuchende Schwierigkeiten bei der Auswahl der für ihre Fragestellung passenden Dienste haben. Besonders gelegentlichen Nutzern von Internet-Suchdiensten fällt es schwer, sich einen Überblick zu verschaffen und Dienste differenziert zu einzusetzen
  11. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.01
    0.006879117 = product of:
      0.034395583 = sum of:
        0.034395583 = weight(_text_:den in 2936) [ClassicSimilarity], result of:
          0.034395583 = score(doc=2936,freq=18.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.33250678 = fieldWeight in 2936, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
      0.2 = coord(1/5)
    
    Abstract
    Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
    Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
  12. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.0061284043 = product of:
      0.030642021 = sum of:
        0.030642021 = weight(_text_:den in 1721) [ClassicSimilarity], result of:
          0.030642021 = score(doc=1721,freq=28.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2962206 = fieldWeight in 1721, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.2 = coord(1/5)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  13. Lischka, K.: Falsche Fährten (2002) 0.01
    0.0059054783 = product of:
      0.02952739 = sum of:
        0.02952739 = weight(_text_:den in 863) [ClassicSimilarity], result of:
          0.02952739 = score(doc=863,freq=26.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2854453 = fieldWeight in 863, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=863)
      0.2 = coord(1/5)
    
    Content
    "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
    Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.
  14. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.0058963853 = product of:
      0.029481927 = sum of:
        0.029481927 = weight(_text_:den in 5987) [ClassicSimilarity], result of:
          0.029481927 = score(doc=5987,freq=18.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.2850058 = fieldWeight in 5987, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
      0.2 = coord(1/5)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  15. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.01
    0.0056738 = product of:
      0.028369 = sum of:
        0.028369 = weight(_text_:den in 1671) [ClassicSimilarity], result of:
          0.028369 = score(doc=1671,freq=24.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.274247 = fieldWeight in 1671, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1671)
      0.2 = coord(1/5)
    
    Content
    "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
    Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
    Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
  16. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 5523) [ClassicSimilarity], result of:
          0.02620616 = score(doc=5523,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 5523, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.2 = coord(1/5)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
  17. Online-Findbücher, Suchmaschinen und Portale : Beiträge des 6. Archivwissenschaftlichen Kolloquiums der Archivschule Marburg (2002) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 6562) [ClassicSimilarity], result of:
          0.02620616 = score(doc=6562,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 6562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=6562)
      0.2 = coord(1/5)
    
    Content
    Der Band enthält Erfahrungsberichte aus verschiedenen Archivanwendungen mit Ausblicken auf die technologischen Möglichkeiten der näheren Zukunft, u.a. mit Ausblick auf den Schwerpunkt der aktuellen internationalen Diskussion um die Nutzung des Internet für die Verbesserung des Zugangs zu Archiven, bei denen die Encoded Archival Description, eine von der Society of American Archivists entwickelte Norm, im Zentrum steht
  18. Pursche, O.: Lost in Web-Space : Geheimes Internet (2002) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 647) [ClassicSimilarity], result of:
          0.02620616 = score(doc=647,freq=2.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 647, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=647)
      0.2 = coord(1/5)
    
    Abstract
    Mehr als 5 Mio deutsche Domains sind registriert. Über 26% davon sind auf normalem Weg unauffindbar. PC pro zeigt den Weg in die versteckten Winkel des Webs
  19. Pasch, R.: Mit Sex zur CDU gelockt : Ortsverband operierte mit fragwürdigen Begriffen im Internet (2002) 0.01
    0.005241232 = product of:
      0.02620616 = sum of:
        0.02620616 = weight(_text_:den in 861) [ClassicSimilarity], result of:
          0.02620616 = score(doc=861,freq=8.0), product of:
            0.10344325 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.036090754 = queryNorm
            0.25333852 = fieldWeight in 861, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
      0.2 = coord(1/5)
    
    Content
    Ein Bibliothekar aus Magdeburg stieß beim Surfen im Internet darauf, dass man beim Eingeben der Begriffe "Sex" und "Judenvernichtung", aber auch bei Worten wie "Stalingrad" und "Lenin" oder "Pille" und "Reißverschluss" auf den CDU-Seiten landen konnte. Der Mann wandte sich daraufhin an die Presse. Ortsverbandsvorsitzender Hochapfel bemühte sich am Freitag um Schadensbegrenzung: "Es tut mir leid." Die Idee für die Liste stammt von Rolf von Briel, Vorstandsmitglied der Fuldataler CDU und für die Erstellung der Internet-Seiten verantwortlich. Er habe laut Hochapfel auf eine Liste der Gesellschaft für Deutsche Sprache zurück gegriffen, in der die meist benutzten Begriffe der vergangenen hundert Jahre enthalten seien. Und darunter befanden sich eben auch solche "mit denen wir gar nichts zu tun haben wollen", wie Hochapfel versicherte. Waren "Bioladen" oder "Pop" eher unverfänglich, führten bisher auch Begriffe wie "Deportation" oder "Führer" auf die Fuldataler CDU-Seiten. Über solche - auf Internetseiten im Normalfall unsichtbaren - Schlüsselbegriffe (Keywords) wird die Verbindung zu den Suchmaschinen hergestellt. Der Inhalt der Keyword-Liste entscheidet, an welcher Stelle eine Seite in den Ranglisten einer Suchmaschine auftaucht. In seinem Eifer, möglichst viele Surfer anzulocken, sei von Briel allerdings etwas zu "unkritisch" vorgegangen, tadelte der Vorsitzende Hochapfel am Freitag das fehlende Gespür seines Parteifreundes. Der Inhalt der CDU-Seiten selbst ist allerdings eher nüchtern: Informationen über die Partei, Bilder vom Vorstand, Wahlkampfparolen. Autor von Briel wollte sich am Freitag nicht zu seinem Vorgehen äußern. Über mögliche Konsequenzen für den virtuellen Fehltritt des Parteimitglieds solle bei einer Vorstandssitzung entschieden werden, sagte Hochapfel."
  20. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.01
    0.005215786 = product of:
      0.02607893 = sum of:
        0.02607893 = product of:
          0.07823679 = sum of:
            0.07823679 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.07823679 = score(doc=4686,freq=2.0), product of:
                0.12638368 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036090754 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
    Date
    27.11.2005 18:04:22