Search (35 results, page 1 of 2)

  • × theme_ss:"Internet"
  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Sauer, D.: Alles schneller finden (2001) 0.08
    0.08383121 = product of:
      0.12574682 = sum of:
        0.045045823 = weight(_text_:im in 6835) [ClassicSimilarity], result of:
          0.045045823 = score(doc=6835,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.3123187 = fieldWeight in 6835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=6835)
        0.08070099 = product of:
          0.12105149 = sum of:
            0.051922753 = weight(_text_:online in 6835) [ClassicSimilarity], result of:
              0.051922753 = score(doc=6835,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.33531237 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.06912874 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.06912874 = score(doc=6835,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Tips zur Suche nach: Aktuellen Nachrichten (www.paperball.de, www.paperazzi.de, www.genios.de) - Filmen und Musik (www.vdfkino.de, www.kino.de, www.cdnow.com, www.billboard.com) - Kids im Netz (www.blindekuh.de, www.safetykid.de, www.kindercampus.de) - Jobs - VIPs, Promis und normale Leute - Urlaub (www.ferien.de, www.travel24.de, www.abenteuerreisen.de) - Software (www.moreover.com, www.completeplanet.com) - Bücher (www.amazon.de, www.libri.de, www.zvab.com. www.ubka.uni-karlsruhe.de/kvk.html)
    Date
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29
  2. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.07
    0.07262799 = product of:
      0.10894198 = sum of:
        0.07207332 = weight(_text_:im in 4686) [ClassicSimilarity], result of:
          0.07207332 = score(doc=4686,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.49970993 = fieldWeight in 4686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.125 = fieldNorm(doc=4686)
        0.03686866 = product of:
          0.110605985 = sum of:
            0.110605985 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.110605985 = score(doc=4686,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Date
    27.11.2005 18:04:22
  3. Eggeling, T.; Kroschel, A.: Alles finden im Web (2000) 0.06
    0.057831556 = product of:
      0.08674733 = sum of:
        0.063704416 = weight(_text_:im in 4884) [ClassicSimilarity], result of:
          0.063704416 = score(doc=4884,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.44168535 = fieldWeight in 4884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.078125 = fieldNorm(doc=4884)
        0.023042914 = product of:
          0.06912874 = sum of:
            0.06912874 = weight(_text_:22 in 4884) [ClassicSimilarity], result of:
              0.06912874 = score(doc=4884,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.38690117 = fieldWeight in 4884, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4884)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Zu jedem denkbaren Thema gibt's Infos im Internet. Doch nicht selten finden Sie entweder zu viel - oder gar nichts. Wir sagen Ihnen, welche Suchmaschinen sich für bestimmte Aufgaben optimal eignen und was Sie bei Ihren Anfragen beachten sollten
    Date
    9. 7.2000 14:06:22
  4. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.06
    0.056177847 = product of:
      0.08426677 = sum of:
        0.022522911 = weight(_text_:im in 3423) [ClassicSimilarity], result of:
          0.022522911 = score(doc=3423,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 3423, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.061743855 = product of:
          0.09261578 = sum of:
            0.05805141 = weight(_text_:online in 3423) [ClassicSimilarity], result of:
              0.05805141 = score(doc=3423,freq=10.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.37489069 = fieldWeight in 3423, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
            0.03456437 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.03456437 = score(doc=3423,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.6666667 = coord(2/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
  5. Online-Findbücher, Suchmaschinen und Portale : Beiträge des 6. Archivwissenschaftlichen Kolloquiums der Archivschule Marburg (2002) 0.03
    0.033255152 = product of:
      0.049882725 = sum of:
        0.03603666 = weight(_text_:im in 6562) [ClassicSimilarity], result of:
          0.03603666 = score(doc=6562,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 6562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=6562)
        0.013846068 = product of:
          0.0415382 = sum of:
            0.0415382 = weight(_text_:online in 6562) [ClassicSimilarity], result of:
              0.0415382 = score(doc=6562,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.2682499 = fieldWeight in 6562, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6562)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    Der Band enthält Erfahrungsberichte aus verschiedenen Archivanwendungen mit Ausblicken auf die technologischen Möglichkeiten der näheren Zukunft, u.a. mit Ausblick auf den Schwerpunkt der aktuellen internationalen Diskussion um die Nutzung des Internet für die Verbesserung des Zugangs zu Archiven, bei denen die Encoded Archival Description, eine von der Society of American Archivists entwickelte Norm, im Zentrum steht
  6. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.03
    0.031847116 = product of:
      0.04777067 = sum of:
        0.041713018 = weight(_text_:im in 2936) [ClassicSimilarity], result of:
          0.041713018 = score(doc=2936,freq=14.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.28921118 = fieldWeight in 2936, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
        0.006057655 = product of:
          0.018172964 = sum of:
            0.018172964 = weight(_text_:online in 2936) [ClassicSimilarity], result of:
              0.018172964 = score(doc=2936,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.11735933 = fieldWeight in 2936, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2936)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
    Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
  7. Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002) 0.03
    0.03046627 = product of:
      0.045699403 = sum of:
        0.04054124 = weight(_text_:im in 2107) [ClassicSimilarity], result of:
          0.04054124 = score(doc=2107,freq=18.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.28108683 = fieldWeight in 2107, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2107)
        0.0051581617 = product of:
          0.015474485 = sum of:
            0.015474485 = weight(_text_:retrieval in 2107) [ClassicSimilarity], result of:
              0.015474485 = score(doc=2107,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.10026272 = fieldWeight in 2107, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2107)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Footnote
    Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
    - Mangelnde Aktualität - Im Schlusskapitel des Buchs wird ein Ausblick auf technische Verbesserungen und Forschungsperspektiven, die sich aus der Untersuchung ergeben, dargestellt. Zu den Verbesserungsvorschlägen zählen unter anderem die Möglichkeit des Suchens mittels natürlichsprachlicher Anfragen, die Verbesserung des Rankings, das Vorschlagen von Suchbegriffen durch die Suchmaschine oder der Einsatz von Visualisierungstechniken. Einen Bedarf für weitere Forschungsarbeiten sieht der Autor in der Erhebung der Differenzen in der Spezifität der von Laien und Experten verwendeten Suchbegriffe. Während sich die vorliegende Untersuchung auf die formalen Aspekte der Gestaltung von Suchanfragen (Einsatz von Operatoren und so weiter) beschränkte, könnten weitere Untersuchungen somit auf deren inhaltliche Gestaltung erweitert werden. Zusammenfassend ist festzuhalten, dass die im vorliegenden Werk erzielten Ergebnisse leider doch recht mager sind. Dies mag damit zusammenhängen, dass die Dissertation bereits im Jahr 2000 abgeschlossen wurde und viele Feststellungen in Bezug auf das Nutzerverhalten mittlerweile als bekannt vorausgesetzt werden können. Hinzu kommt, dass die hier vorliegende Verlagsfassung der Arbeit nur marginal aktualisiert wurde. Ein einführendes Kapitel, das sich grundlegend mit der Websuche befasst, sowie die Schlussfolgerungen sind heute leider aufgrund der mangelnden Aktualität nahezu wertlos."
  8. feu: Wildes Browsen (2002) 0.03
    0.02939368 = product of:
      0.04409052 = sum of:
        0.031852208 = weight(_text_:im in 4914) [ClassicSimilarity], result of:
          0.031852208 = score(doc=4914,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22084267 = fieldWeight in 4914, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4914)
        0.012238312 = product of:
          0.036714934 = sum of:
            0.036714934 = weight(_text_:online in 4914) [ClassicSimilarity], result of:
              0.036714934 = score(doc=4914,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23710167 = fieldWeight in 4914, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4914)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Eine Enttäuschung mehr: Die Studierenden von heute unterscheiden sich nicht vom Durchschnittsbürger, wenn sie via Computer Wissenswertes aufspüren. Das belegt eine Studie des Landesinstituts Sozialforschungsstelle Dortmund, das im Auftrag des Bundesbildungsministeriums bei Studierenden an Universitäten und Fachhochschulen vorfühlte. Demnach lässt die "Nutzung elektronischer wissenschaftlicher Information in der Hochschulausbildung" ziemlich viele Wünsche offen. Wer von rosigen Zeiten mit virtuellen Universitäten, vernetzten Rechnern und multimedialen Lehrbüchern schwärmt, hat sicher mehr erhofft als das wilde "Browsen" des akademischen Nachwuchses. Der Dortmunder Erhebung zufolge werden die versteckten Schätze in Online-Bibliothekskatalogen und elektronischen Fachzeitschriften, bei Volltexttrechercheund Bestelldiensten und in Fachdatenbanken nur unzureichend gehoben, weil es an Findigkeit und Kompetenz in Informationsbeschaffung mangelt. Systematische Suche ist eher die Ausnahme. Adressen wie der Karlsruher virtuelle Katalog und Online-Datenbanken von Fachinformationszentren? So gut wie noch nie gehört. Stattdessen verlassen sich die Studierenden hauptsächlich auf konventionelle, vertraute Pfade im Internet. Am häufigsten bedienen sie sich der üblichen Suchmaschinen. Die nächsten Ränge auf der Beliebtheitsskala: E-Mail-Austausch mit Kommilitonen, Recherche auf dem lokalen Server der Unibibliothek. Vom Ertrag des Stöberns sind die Studierenden nicht gerade begeistert: viel Durcheinander und nicht Verwertbares, reichlich Zufälliges, eine Menge Frust. Ehrlich bekennen 32 Prozent ihr "geringes" Wissen, um in elektronischen Quellen an Brauchbares heranzkommen. 44,4 Prozent schätzen ihren Fundus als "mittel" ein. Auch die Hochschullehrer mäkeln, die Qualität des elektronisch recherchierten Materials sei dürftig. Man merke das an schriftlichen Arbeiten. Die Lernenden könnten häufig nicht einschätzen, was bei der Suche herausspringe und ob das aus dem Netz Gefischte relevant sei. Der springende Punkt: Das Gros der Studierenden bringt sich rudimentäre "Informationskompetenz" selbst bei - durch Versuch und Irrtum. Wer nicht weiterkommt, sucht Rat bei Kommilitonen. Nur 15,7 Prozent der Befragten hat sich vom Bibliothekspersonal professionell helfen lassen. Was liegt also näher als der Ruf nach Aufnahme des Themas ins Grundlagen-Lehrprogramm?
  9. Schultheiß, G.F.: Google, Goggle, Google, ... : Whose Mind is it Anywhere? Identifying and Meeting Divers User Needs in the Ongoing Sattle for Mindshare - NFAIS 47th Annual Conference, Philadelphia, USA vom 27. Februar bis 1. März 2005 (2005) 0.03
    0.027235493 = product of:
      0.04085324 = sum of:
        0.027027493 = weight(_text_:im in 3421) [ClassicSimilarity], result of:
          0.027027493 = score(doc=3421,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 3421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3421)
        0.013825747 = product of:
          0.04147724 = sum of:
            0.04147724 = weight(_text_:22 in 3421) [ClassicSimilarity], result of:
              0.04147724 = score(doc=3421,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.23214069 = fieldWeight in 3421, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3421)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Das Herausfinden und Lösen verschiedener Nutzerbedürfnisse als Hauptthema der Konferenz warf gleich mehrere Fragen auf: Erstens, wer sind die Nutzer? Zweitens, was wollen sie? Und wer beurteilt das und aus welcher Sicht? Welche Auswirkungen haben die realisierten Maßnahmen? Die etwa 200 Teilnehmer aus neun Nationen, davon 21 aus europäischen Ländern, davon drei aus Deutschland, wurden in sechs Vortragsblöcken mit einer Vielzahl von Aspekten konfrontiert, die wie so oft in unserer rasanten Entwicklung im IT-Bereich nur Lösungsansätze aufzeigten oder die Schwierigkeiten mit den Angeboten. Herausragendes Merkmal war der mehrfache Bezug auf die Marke "Google"!
    Date
    22. 5.2005 13:38:26
  10. Suchen und Finden im Internet : oder: "Die Nadel im Heuhaufen" (2001) 0.03
    0.025481766 = product of:
      0.0764453 = sum of:
        0.0764453 = weight(_text_:im in 4489) [ClassicSimilarity], result of:
          0.0764453 = score(doc=4489,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.53002244 = fieldWeight in 4489, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.09375 = fieldNorm(doc=4489)
      0.33333334 = coord(1/3)
    
  11. Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003) 0.02
    0.024013853 = product of:
      0.036020778 = sum of:
        0.027027493 = weight(_text_:im in 4558) [ClassicSimilarity], result of:
          0.027027493 = score(doc=4558,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 4558, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4558)
        0.008993286 = product of:
          0.026979856 = sum of:
            0.026979856 = weight(_text_:online in 4558) [ClassicSimilarity], result of:
              0.026979856 = score(doc=4558,freq=6.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.17423344 = fieldWeight in 4558, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=4558)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
    Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
  12. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.02
    0.022913655 = product of:
      0.034370482 = sum of:
        0.027027493 = weight(_text_:im in 5987) [ClassicSimilarity], result of:
          0.027027493 = score(doc=5987,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 5987, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
        0.0073429868 = product of:
          0.02202896 = sum of:
            0.02202896 = weight(_text_:online in 5987) [ClassicSimilarity], result of:
              0.02202896 = score(doc=5987,freq=4.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.142261 = fieldWeight in 5987, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=5987)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  13. Koenemann, J.; Lindner, H.-G.; Thomas, C.: Unternehmensportale : Von Suchmaschinen zum Wissensmanagement (2000) 0.02
    0.021021385 = product of:
      0.06306415 = sum of:
        0.06306415 = weight(_text_:im in 5233) [ClassicSimilarity], result of:
          0.06306415 = score(doc=5233,freq=8.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.4372462 = fieldWeight in 5233, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5233)
      0.33333334 = coord(1/3)
    
    Abstract
    Aufgabe des Wissensmanagements ist es, den Mitarbeitern im Unternehmen entscheidungs- und handlungsrelevante Informationen bereitzustellen und die Mitarbeiter bei der intelligenten Verarbeitung dieser Informationen zu unterstützen. Ein hierzu genutztes Werkzeug von wachsender Bedeutung sind Unternehmensportale. Wir beschreiben kurz die Entwicklung von Portalen im World Wide Web (WWW), um dann Web-Portale von verschiedenen Arten von Unternehmensportalen abzugrenzen. Wir zeigen erwartete Funktionalitäten auf und stellen ein 5-Schichten Modell einer Gesamtarchitektur für Portale dar, welche die wesentlichen Komponenten umfasst. Im Anschluss werden die Besonderheiten der organisatorischen Realisierung und im Ausblick der Übergang von Portalen zum ,ubiquitous personalized information supply", der überall verfügbaren und individuellen Informationsversorgung behandelt
  14. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (2001) 0.02
    0.021021385 = product of:
      0.06306415 = sum of:
        0.06306415 = weight(_text_:im in 6488) [ClassicSimilarity], result of:
          0.06306415 = score(doc=6488,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.4372462 = fieldWeight in 6488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.109375 = fieldNorm(doc=6488)
      0.33333334 = coord(1/3)
    
  15. Sherman, C.; Price, G.: ¬The invisible Web : uncovering information sources search engines can't see (2001) 0.02
    0.020784471 = product of:
      0.031176705 = sum of:
        0.022522911 = weight(_text_:im in 62) [ClassicSimilarity], result of:
          0.022522911 = score(doc=62,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.15615936 = fieldWeight in 62, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=62)
        0.008653793 = product of:
          0.025961377 = sum of:
            0.025961377 = weight(_text_:online in 62) [ClassicSimilarity], result of:
              0.025961377 = score(doc=62,freq=2.0), product of:
                0.1548489 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.051022716 = queryNorm
                0.16765618 = fieldWeight in 62, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=62)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Enormous expanses of the Internet are unreachable with standard Web search engines. This book provides the key to finding these hidden resources by identifying how to uncover and use invisible Web resources. Mapping the invisible Web, when and how to use it, assessing the validity of the information, and the future of Web searching are topics covered in detail. Only 16 percent of Net-based information can be located using a general search engine. The other 84 percent is what is referred to as the invisible Web-made up of information stored in databases. Unlike pages on the visible Web, information in databases is generally inaccessible to the software spiders and crawlers that compile search engine indexes. As Web technology improves, more and more information is being stored in databases that feed into dynamically generated Web pages. The tips provided in this resource will ensure that those databases are exposed and Net-based research will be conducted in the most thorough and effective manner. Discusses the use of online information resources and problems caused by dynamically generated Web pages, paying special attention to information mapping, assessing the validity of information, and the future of Web searching.
    Content
    Enthält viele Hinweise und Links für Suchen im 'invisible net'
  16. Behrens, D.: Anti-Spionage-Tipps : Das erfährt man über Sie im Internet (2003) 0.01
    0.014864365 = product of:
      0.044593092 = sum of:
        0.044593092 = weight(_text_:im in 1710) [ClassicSimilarity], result of:
          0.044593092 = score(doc=1710,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.30917975 = fieldWeight in 1710, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1710)
      0.33333334 = coord(1/3)
    
    Abstract
    Sie werden staunen, welche Informationen andere über Sie im Internet recherchieren können. Das muss nicht sein: Lesen Sie, wie Sie ihre Provatsphäre wirksam schützen
  17. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.013534586 = product of:
      0.040603757 = sum of:
        0.040603757 = weight(_text_:im in 1721) [ClassicSimilarity], result of:
          0.040603757 = score(doc=1721,freq=26.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.28152028 = fieldWeight in 1721, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.33333334 = coord(1/3)
    
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  18. Seiffert, F.: ¬Das "Virtuelle Bücherregal NRW" : Literatursuche mit der einfachsten Suchstrategie: Google und Co. (2003) 0.01
    0.01300361 = product of:
      0.03901083 = sum of:
        0.03901083 = weight(_text_:im in 1641) [ClassicSimilarity], result of:
          0.03901083 = score(doc=1641,freq=6.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.27047595 = fieldWeight in 1641, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1641)
      0.33333334 = coord(1/3)
    
    Content
    Kommentar der Redaktion: "Schon heute sind große Bereiche des Internet über Suchmaschinen nicht recherchierbar, obwohl die betreffenden Angebote relevante und aktuelle Informationen enthalten können. Bei diesen für Suchmaschinen »unsichtbaren« Inhalten im so genannten Deep Web handelt es sich in der Regel um dynamische Seiten, die erst durch konkrete Anfragen eines Internetnutzers erzeugt werden. Die dabei meist aus Datenbanken abgerufenen Informationen (zum Beispiel Fahrpläne, viele Warenkataloge oder bibliographische Bestandsnachweise) sind nur temporär und ausschließlich für den Anfragenden im Internet verfügbar. Die übrige Zeit bleiben die Informationen für Suchmaschinen wie Google oder Alltheweb »verborgen« (aus diesem Grund wird das Deep Web auch als Invisible Web bezeichnet), oder ihre Erschließung wäre für die Suchmaschinenbetreiber zu aufwendig. Auch die vom Hochschulbibliothekszentrum Nordrhein Westfalen (www. hbz-nrw.de) vorgehaltenen bibliographischen Informationen und Bestandsnachweise konnten bislang im Internet nur über die Schnittstelle der Datenbank recherchiert werden. Das HBZ hat sich mit dem Angebot des Virtuellen Bücherregals NRW zum Ziel gesetzt, die in der HBZ-Verbunddatenbank abgelegten Informationen für die gängigen Internetsuchmaschinen »sichtbar« zu machen. Der vorliegende Beitrag erläutert ausführlich, wie die Titeldaten in separate HTMLSeite überführt wurden. Und er gibt vor allem eine Antwort auf die spannende Frage, ob die Suchmaschinen diesen »Köder« auch wirklich geschluckt und infolgedessen neue Kundschaft zum HBZ geführt haben." (rei)
  19. Pursche, O.: Lost in Web-Space : Geheimes Internet (2002) 0.01
    0.01201222 = product of:
      0.03603666 = sum of:
        0.03603666 = weight(_text_:im in 647) [ClassicSimilarity], result of:
          0.03603666 = score(doc=647,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.24985497 = fieldWeight in 647, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=647)
      0.33333334 = coord(1/3)
    
    Content
    Im Anhang (S.80-81) wird ein Überblick über File Sharing Programme gegeben: Audiognome (www.audiognome.com); Bearshare (www.bearshare.com); Direct Connect (www.neo-modus.com); E-Donkey 2000 (www.edonkey2000.com); Filenavigator (www.filenavigator.com); Imesh (www.imesh.com); Limewire (www.limewire.com); Morpheus (www.musiccity.com); Win MX (www.winmx.com); Xnap (www.sourceforge.net)
  20. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.01
    0.011033928 = product of:
      0.033101782 = sum of:
        0.033101782 = weight(_text_:im in 1475) [ClassicSimilarity], result of:
          0.033101782 = score(doc=1475,freq=12.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.22950643 = fieldWeight in 1475, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.