Search (311 results, page 1 of 16)

  • × theme_ss:"Internet"
  • × year_i:[2000 TO 2010}
  1. Beuth, P.: Kurz und fündig : Microsoft setzt jetzt auf Kurzmeldungen (2009) 0.07
    0.06935182 = product of:
      0.13870364 = sum of:
        0.09728119 = weight(_text_:suchmaschine in 3203) [ClassicSimilarity], result of:
          0.09728119 = score(doc=3203,freq=12.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.45906824 = fieldWeight in 3203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.0363447 = weight(_text_:ranking in 3203) [ClassicSimilarity], result of:
          0.0363447 = score(doc=3203,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.17928566 = fieldWeight in 3203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.00507775 = product of:
          0.015233249 = sum of:
            0.015233249 = weight(_text_:22 in 3203) [ClassicSimilarity], result of:
              0.015233249 = score(doc=3203,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.116070345 = fieldWeight in 3203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3203)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Das große Gerangel um die Suchmaschine der Zukunft geht in die nächste Runde. Erst gab Microsoft am gestrigen Donnerstag bekannt, künftig auch die Nachrichten von Twitter- und Facebook-Nutzern in seine Suchergebnisse aufzunehmen. Und nur wenige Stunden später verkündete Google, einen ganz ähnlichen Deal mit Twitter abgeschlossen zu haben. Der mit Facebook könnte bald folgen. Die Konkurrenten integrieren damit in ihre Suchergebnisse, was sie bislang nicht hatten: die Echtzeit-Suche. Google-Vizepräsidentin Marissa Mayer nennt in einem Blog-Eintrag selbst ein Beispiel: "Wenn Sie das nächste Mal nach etwas suchen, bei dem Echtzeit-Beobachtungen hilfreich sind - sagen wir aktuelle Schneebedingungen in Ihrem Lieblings-Skigebiet - werden Sie bei Google auch Twitter-Einträge von Leuten finden, die bereits in dem Gebiet sind und von dort die neuesten Informationen verbreiten." Bei Twitter und Facebook, wo Millionen Nutzer zu jeder Zeit neue Nachrichten zu jedem beliebigen Thema verfassen, kommt bislang keine Suchmaschine mit. So schnell, wie in den Netzwerken etwas Neues veröffentlicht wird, ist keiner der Roboter, die für Google und Microsofts Suchmaschine Bing die Inhalte des Internets durchstöbern.
    Profitieren können alle Beteiligten - Beide Unternehmen brauchen diese Daten aber, weil sich das Suchverhalten der Menschen ändert. Der Harvard-Professor Urs Gasser hat festgestellt, dass junge Internetnutzer die Relevanz einer Information "weniger an der Quelle" messen als daran, "was in ihrer Facebook-Gruppe gelesen und geschrieben wird." Anders ausgedrückt: Sie lassen nicht mehr Nachrichtenseiten oder Google-News entscheiden, was die wichtigsten Themen der Stunde sind, sondern ihre Freunde und Bekannten im Netz. Und die verbreiten ihre Favoriten eben über Facebook oder auch Twitter. In den Netzwerken kursieren vor allem auch Informationen, die bislang unter der Wahrnehmungsschwelle der Suchmaschinen liegen, weil sie nur für einige wenige Menschen und eine begrenzte Zeit interessant sind und deshalb keine entsprechende Internet-Präsenz haben. Zwar kann man auch auf twitter.com die aktuellen Einträge, sogenannte Tweets, nach Begriffen durchsuchen. Doch als eigenständige Suchmaschine ist Twitter der breiten Masse der Internetnutzer nahezu unbekannt. Zudem ist die Auflistung der Suchergebnisse streng chronologisch und zeigt damit viele nutzlose Informationen an. Die erste Betaversion von Bing sortiert die Tweets schon jetzt um einiges intelligenter (weiteres nach dem Seitenwechsel unten). Profitieren können von den Deals alle Beteiligten. Die Suchmaschinen können mehr und vor allem brandaktuelle Informationen anzeigen und werden damit für Werbekunden, die neben diese Suchergebnissen angezeigt werden wollen, interessanter. Denn auf twitter.com selbst gibt es bislang keine Werbung. Das Netzwerk selbst - wie auch Facebook - ist seit seiner Gründung ein Geschäft ohne Geschäftsmodell und auf wohlwollende Geldgeber angewiesen. Die Kooperation mit Google und Microsoft dürfte an sich schon mal eine größere Summe in die Kassen spielen, auch wenn sich bislang keines der Unternehmen dazu äußern will. Wahrscheinlich werden Twitter und Facebook aber auch an den Werbeeinnahmen beteiligt, die die Suchmaschinen mit den neuen Inhalten generieren. Außerdem werden die Netzwerke aufgewertet, weil sie ihre Reichweiten steigern und auch Nicht-Mitglieder erreichen.
    Wie genau eine Suche nach Tweets über eine Suchmaschine aussehen wird, kann man bislang nur bei Microsoft in einer Betaversion unter bing.com/twitter sehen. Das Fachblog Search Engine Land erklärt den Ablauf: An oberster Stelle befindet sich ein Feld mit den derzeit meistdiskutierten Begriffen bei Twitter. Das ist ein erster Gradmesser für die Relevanz eines Themas. Wer dann einen Suchbegriff eingibt, etwa "Dan Brown", bekommt zwei Felder angezeigt. In einem stehen die jüngsten Twitter-Einträge, die sogenannten Tweets, zum Thema Dan Brown. Die jüngsten heißt im besten Fall: veröffentlicht vor einer Minute. Im zweiten Feld stehen die wichtigsten Links zum Thema Dan Brown, die aktuell über Twitter verbreitet werden. Entscheidend für die Qualität der Suchergebnisse ist der Filter von Microsoft. Die Suchmaschine durchwühlt nicht selbst alle Twitterprofile, sonder Twitter liefert in Echtzeit alle veröffentlichten Tweets an Bing über eine Art Standleitung. Dort werden zunächst möglichst alle Duplikate und nicht jugendfreien Inhalte aussortiert. Dann wird ein Ranking erstellt. Kriterien für die Filter sind die Popularität des Twitterers (abzulesen an der Zahl seiner Beobachter, der sogenannten Follower), die Zahl der Weiterleitungen (Retweets) und die Aktualität des Tweets. Das alles dauert noch einige Sekunden. In einer ausgereiften Version aber soll sie in der Lage sein, das millionenfache Gezwitscher nutzerfreundlich und ohne Verzögerung zu sortieren."
    Date
    3. 5.1997 8:44:22
  2. Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004) 0.05
    0.05081504 = product of:
      0.15244511 = sum of:
        0.14652106 = weight(_text_:suchmaschine in 4826) [ClassicSimilarity], result of:
          0.14652106 = score(doc=4826,freq=20.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.69143033 = fieldWeight in 4826, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4826)
        0.005924042 = product of:
          0.017772125 = sum of:
            0.017772125 = weight(_text_:22 in 4826) [ClassicSimilarity], result of:
              0.017772125 = score(doc=4826,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.1354154 = fieldWeight in 4826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4826)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
    Inzwischen hat der Buchversender einige Vorkehrungen getroffen. Unter anderem wurde eine elektronische Sperre errichtet, so dass die Seiten inzwischen nur noch von geübten Computernutzern kopiert oder ausdruckt werden können. Mit "Search Inside the Bock" hat der OnlineRiese seinen ersten Schritt in den heiß umkämpften Markt der Suchmaschinen unternom- men. Schon plant Amazön nach amerikanischen Medienberichten eine weitere Suchmaschine, um Kunden das elektronische Einkaufen zu erleichtern.. Die unter den Codenamen A9 bekannte Suchmaschine soll unter anderem die Preise von Produkten vergleichen und das günstigste Angebot ermitteln. Damit stößt Amazön in einen Markt vor, der bisher in den USA von dem Onlineportal Yahoo oder der Super-Suchmaschine Google beherrscht wurde. Google hat bereits zum Gegenangriff angesetzt. Nach Informationen des Fachmagazins "Publishers Weekly". verhandelt das Unternehmen bereits mit Verlagen, um ebenfalls in die neue Dimension der Buchinhalte vorzudringen."
    Date
    3. 5.1997 8:44:22
  3. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.05
    0.04672573 = product of:
      0.14017719 = sum of:
        0.091717586 = weight(_text_:suchmaschine in 1076) [ClassicSimilarity], result of:
          0.091717586 = score(doc=1076,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4328137 = fieldWeight in 1076, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.0484596 = weight(_text_:ranking in 1076) [ClassicSimilarity], result of:
          0.0484596 = score(doc=1076,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.23904754 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  4. Zhang, Y.; Jansen, B.J.; Spink, A.: Identification of factors predicting clickthrough in Web searching using neural network analysis (2009) 0.04
    0.037651278 = product of:
      0.112953834 = sum of:
        0.102798335 = weight(_text_:ranking in 2742) [ClassicSimilarity], result of:
          0.102798335 = score(doc=2742,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 2742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2742)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 2742) [ClassicSimilarity], result of:
              0.030466499 = score(doc=2742,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 2742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2742)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    In this research, we aim to identify factors that significantly affect the clickthrough of Web searchers. Our underlying goal is determine more efficient methods to optimize the clickthrough rate. We devise a clickthrough metric for measuring customer satisfaction of search engine results using the number of links visited, number of queries a user submits, and rank of clicked links. We use a neural network to detect the significant influence of searching characteristics on future user clickthrough. Our results show that high occurrences of query reformulation, lengthy searching duration, longer query length, and the higher ranking of prior clicked links correlate positively with future clickthrough. We provide recommendations for leveraging these findings for improving the performance of search engine retrieval and result ranking, along with implications for search engine marketing.
    Date
    22. 3.2009 17:49:11
  5. Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008) 0.04
    0.036594182 = product of:
      0.10978255 = sum of:
        0.05732349 = weight(_text_:suchmaschine in 1797) [ClassicSimilarity], result of:
          0.05732349 = score(doc=1797,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.27050856 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
        0.05245906 = weight(_text_:ranking in 1797) [ClassicSimilarity], result of:
          0.05245906 = score(doc=1797,freq=6.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.25877658 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suchmaschine und das Online-Lexikon greifen sich gegenseitig an. Beide wollen es besser können als der andere.
    Content
    Knol? Knol ist bekannter unter dem Namen gPedia oder auch Googlepedia, ein Online-Lexikon wie Wikipedia. Google greift Wikipedia an. Warum? Weil Wikipedia Google angegriffen hat. Denn vor zirka einem Jahr verkündete Wiki-Gründer Jimmy Wales, dass er eine eigene Suchmaschine konzipiert, die nach Wiki-Prinzipien arbeitet. Die Verantwortlichen bei Google, die eh in jedem Bereich des Internets Fuß fassen möchten, griffen den Fehdehandschuh auf und riefen Knol ins Leben. Wikia Search kann der Besucher schon ausprobieren (search.wikia.com/wiki/Search_Wikia/de), zu Knol gibt es nur einen Bild (www.google.com/help/knol_screenshot.ht ml) und eine Reihe von Ideen (knolstuff.com). Beide Neuschöpfungen versuchen, die Fehler des konkurrierenden Vorbilds zu vermeiden, um auf Dauer besser zu sein. Das Nachschlagewerk Der Hauptunterschied zwischen Knol - der Name kommt von Knowledge - und Wikipedia betrifft die Rolle der Autoren. Bei Wiki sind Autoren und Leser etwa gleichwertig, so dass der Leser, wenn er einen Fehler findet, sofort in die Rolle des Autors wechselt und Korrekturen oder Ergänzungen unmittelbar am Text vornimmt. Anders bei Knol, denn hier rückt der Autor stärker in den Vordergrund. Er ist mit Bild rechts oben in der Ecke seines Textes sichtbar und der Leser findet Informationen über ihn. Im Zentrum steht nicht die Weisheit der Vielen, sondern die Sachkunde des Experten. Dieser behält im Folgenden die Kontrolle über seinen Text, indem er beispielsweise Ergänzungen genehmigt oder nicht. So ist eine gewisse Einheitlichkeit gewahrt. Wem der Text also nicht gefällt, kann diesen nicht ändern. Aber er kann selbst einen Text zum gleichen Thema schreiben. Verschiedene Sichtweisen eines Themas konkurrieren also nicht in einem Text wie bei Wikipedia, was oft zu skurrilen Grabenkämpfen führt, sondern in eigenständigen Werken. Der Leser hat dann die Wahl, wobei Bewertungen anderer Leser ihm bei der Auswahl helfen. Denn jeder Leser kann einen Knol-Artikel kommentieren oder rezensieren (ohne dass der Autor das zensieren könnte) und mit Sternchen bewerten. So gibt es für die Gemeinschaft die Möglichkeit, eine qualitative Auswahl und ein Ranking von Texten vorzunehmen.
    Der Autor hat darüber hinaus die Möglichkeit etwas mit seinen Texten zu verdienen. Denn er kann Google-Werbung freischalten und die Firma beteiligt ihn an den Einnahmen. So hat er noch einen Anreiz mehr, gute Qualität zu liefern und im Ranking zu steigen. Autoren, die allerdings keine Werbung mögen, weil diese beispielsweise ihr Renommee als Wissenschafter schädigt, müssen Google-Ads nicht freigeben. Noch ein Unterschied zu Wikipedia liegt in der Art der Texte. Die Wiki-Macher legen starken Wert darauf, dass sich in der Online-Enzyklopädie nur Artikel mit lexikalischem Interesse finden, das heißt es gibt eine lange Liste mit Relevanzkriterien (de.wikipedia.org/wiki/Wikipedia:Relevanzkriterien), die regeln, ob ein Thema "enzyklopädische Bedeutung" hat oder nicht. Das alles soll es bei Knol nicht geben. Alle Arten von Sachtexten sind erwünscht also explizit auch Anleitungen ("So bauen Sie ein Vogelhäuschen") oder Produktbeschreibungen ("Das neue Handy..."). Da ist die Grenze zur Werbung kaum zu ziehen, was auch einer der Hauptkritikpunkte an Knol ist: "Man wird dort schrecklich viele Artikel über Viagra sehen", macht sich Wikipedia-Gründer Jimmy Wales nicht ganz zu unrecht lustig. Der Hauptangriff gegen Wikipedia wird sein, dass Knol-Artikel auch in den Suchergebnissen von Google zu finden sein werden, sicher weit oben und an der Stelle, wo jetzt prominent die Wiki-Texte liegen. So wird es zu einer gewissen Verdrängung kommen. Umgekehrt hat Google aber angekündigt, dass die Knol-Texte auch für andere Suchmaschinen offen sind, hier also kein Zaun für die Konkurrenz entsteht. Von Knol wie gesagt gibt es nur einen Screenshot, der einen Entwurf eines Lexikonartikels zeigt. Neben dem schon erwähnten Autorenkasten, findet sich in Kopf eine Kurzfassung des Textes mit einer Reihe von Metainformationen. Das sind in erster Line ein Inhaltsverzeichnis sowie die Zahl der Sterne, der Kommentare und der Rezensionen. Der Text selbst (über Schlafstörungen) ist ansprechend gesetzt, verfügt über Fotos sowie Grafiken und zeigt am Ende weiterführende Bücher und Links.
    Der Autorenkasten zeigt die Berufsbezeichnung der Autorin, weitere Artikel von ihr, zum Thema passende Artikel und eben die Google-Werbung. Außerdem hat sich die Autorin dafür entschieden, den Artikel unter die Creative-Commons-Lizenz (CCL) zu stellen, so dass andere Autoren das Material unter bestimmten Einschränkungen, zum Beispiel die Nennung des Urhebers, weiter verwenden können. Ein Knot-Artikel könnte so auch bei Wikipedia landen. Ob die CCL eine Google-Vorgabe für alle Texte im Lexikon wird, ist noch nicht bekannt. Die Suche Die Wiki-Konkurrenz zu Google heißt Wikia-Search. Der Namensbestandteil Wikia verrät den Urheber des Projekts, denn es handelt sich nicht um die gemeinnützige WikimediaFoundation, die Betreiberin von Wikipedia, sondern um Wikia Inc., ein gewinnorientiertes Unternehmen des Wiki-Gründers Jimmy Wales. Die Anwender, die die Suchergebnisse von Wikia-Search verbessern, arbeiten also auch unbezahlt am Gewinn des Firmengründers mit. Seit YouTube ein weit verbreitetes Web-2.0-Phänomen. Die Wikia-Suche soll sich in erster Linie durch Offenheit zu Google unterscheiden. Das heißt, der Such- und Ranking-Algorithmus ist Open Source. Jeder kann wissen, warum seine Seite an welcher Position landet. Außerdem soll es Programmierschnittstellen (APIs) geben. Das ist nicht nur für die ehrlichen Webmaster gut, sondern auch für Spammer, denen Wikia die Manipulation erleichtert. Wie der Betreiber dagegen vorgehen will, dazu gibt es noch keine Aussagen. Eine gewisse Kontrolle werden die Anwender ausüben, die die Ergebnisse bewerten können. So wandert Spam schnell nach unten und die guten Resultate nach oben.
    Die Teilnahme der Anwender erfolgt über zwei Werkzeuge. Einmal gibt es die Miniartikel, die ein Suchwort kurz erklären oder verschiedene Bedeutungen eines Begriffs aufzeigen. Dieses Wissen soll die Suchmaschine einmal verwenden, um die Suchergebnisse in einen besseren Kontext zu binden (handelt es sich um den britischen oder den afrikanischen Jaguar?). Ferner kann jeder Suchende bis zu fünf Sternchen für einzelne Treffer vergeben. Das soll künftig ebenfalls das Ergebnis beeinflussen und verbessern. Wie man sieht, sind die interessanten und Erfolg versprechenden Funktionen bislang noch abgeschaltet. Weiter beachtenswert ist bei Wikia die Möglichkeit, den Index zu wechseln. Für viele lexikalische Suchen eignet sich die White List, die nur eine zwar lange, aber festgelegte Liste von Seiten durchsucht. Spam ist dabei fast ausgeschlossen, während die Treffer zwar nicht allumfassend sind, aber eine hohe Relevanz besitzen. Sowohl Wikia als auch Knol sehen nach viel versprechenden Neuansätzen aus und beide haben eins gemeinsam: Sie bringen frischen Wind in festgefügte Strukturen, denn sowohl dem allmächtigen Google als auch der selbstherrlichen Wikipedia kann ein bisschen Konkurrenz nicht schaden."
  6. Friedrich, H.: Cross Database Search - Datenbankübergreifende Suche (2001) 0.03
    0.034874562 = product of:
      0.10462368 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 165) [ClassicSimilarity], result of:
          0.09266805 = score(doc=165,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=165)
        0.011955633 = product of:
          0.035866898 = sum of:
            0.035866898 = weight(_text_:29 in 165) [ClassicSimilarity], result of:
              0.035866898 = score(doc=165,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.27205724 = fieldWeight in 165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=165)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Zentralstelle für Agrardokumentation und -information (ZADI) entwickelt derzeit eine Multi-Host-Suchmaschine (MHS) zur simultanen Suche in mehreren, an unterschiedlichen Orten befindlichen Datenbanken. Erste Anwendungen der Technologie befinden sich in einem Prototypen des Bundesinformationssystems Genetische Ressourcen (BIG) sowie in einer Multi-Host-Literatursuchmaschine der Food and Agriculture Organization (FAO) der Vereinten Nationen im Test. Der Beitrag stellt Notwendigkeit und Anforderungen dar und erörtert zur Problemlösung eingesetzte Methoden. Die implementierte Funktionalität wird anhand des für die FAO entwickelten Prototypen zur Literatursuche erläutert
    Date
    20. 1.2002 18:42:29
  7. Hehl, H.: Änderungen und Erweiterungen im Multisuchsystem E-Connect (2000) 0.03
    0.034838714 = product of:
      0.10451613 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 5552) [ClassicSimilarity], result of:
          0.09266805 = score(doc=5552,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 5552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5552)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 5552) [ClassicSimilarity], result of:
              0.03554425 = score(doc=5552,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 5552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5552)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das in dieser Zeitschrift bereits vorgestellte Multisuchsystem E-Connect hat mittlerweile einige äußere und innere Anderungen und Erweiterungen erfahren. Abbildung 1 zeigt das Suchformular für die Suche in mehreren allgemeinen Aufsatz- und Verlagsdatenbanken. Ein entsprechendes Suchformular für die Suche nach Zeitschriftenaufsätzen mehrerer bzw. einzelner Fachgebiete ist ähnlich aufgebaut und enthält u. a. den vereinfachten Zugang zu dem fachlich den gesamten STIVI-Bereich umfassenden EnergyPortal Search und zu weiteren Datenbanken von elektronischen Aufsätzen, Reports und Preprints. Von der Startseite aus kann man jetzt auch über eine Suchmaschine sowohl die im Multisuchsystem als auch die in den Bibliographischen Datenbanken im Internet enthaltenen etwa 160 Datenbanken suchen und anwählen. Damit ist eine Art von digitaler Bibliothek entstanden, die vor allem elektronisch verfügbare Dokumente erschließt
    Date
    26.12.2000 10:25:22
  8. Internet Archive : Neue Zeit-Suchmaschine (2003) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 2257) [ClassicSimilarity], result of:
          0.18721774 = score(doc=2257,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 2257, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=2257)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Internet Archive hat eine neue Suchmaschine namens Recall entwickelt, mit der über 11 Milliarden archivierte Webseiten durchsucht werden können. Da jedem Begriff Themen und Kategorien zugeordnet sind, kann der Anwender seine Suche noch weiter spezifizieren. Aktuell sind rund 50.000 Kategorien mit insgesamt 1,4 Millionen Suchbegriffen erfasst
  9. Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005) 0.03
    0.029861754 = product of:
      0.08958526 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 3397) [ClassicSimilarity], result of:
          0.07942976 = score(doc=3397,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 3397, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=3397)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 3397) [ClassicSimilarity], result of:
              0.030466499 = score(doc=3397,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 3397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3397)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    "Zweimal täglich googeln" empfiehlt Mathias Bröckers in seinem Buch "Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.". Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum 11. September vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der US-Regierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der "Fall Bröckers" für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein [[extern] ] konspirologisches Tagebuch zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet: Um an die Informationen in diesem Buch zu kommen, musste ich weder über besondere Beziehungen verfügen, noch mich mit Schlapphüten und Turbanträgern zu klandestinen Treffen verabreden - alle Quellen liegen offen. Sie zu finden, leistete mir die Internet-Suchmaschine Google unschätzbare Dienste. Mathias Bröckers
  10. Menczer, F.: Lexical and semantic clustering by Web links (2004) 0.03
    0.027645696 = product of:
      0.082937084 = sum of:
        0.0726894 = weight(_text_:ranking in 3090) [ClassicSimilarity], result of:
          0.0726894 = score(doc=3090,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 3090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=3090)
        0.010247685 = product of:
          0.030743055 = sum of:
            0.030743055 = weight(_text_:29 in 3090) [ClassicSimilarity], result of:
              0.030743055 = score(doc=3090,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 3090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3090)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Recent Web-searching and -mining tools are combining text and link analysis to improve ranking and crawling algorithms. The central assumption behind such approaches is that there is a correiation between the graph structure of the Web and the text and meaning of pages. Here I formalize and empirically evaluate two general conjectures drawing connections from link information to lexical and semantic Web content. The link-content conjecture states that a page is similar to the pages that link to it, and the link-cluster conjecture that pages about the same topic are clustered together. These conjectures are offen simply assumed to hold, and Web search tools are built an such assumptions. The present quantitative confirmation sheds light an the connection between the success of the latest Web-mining techniques and the small world topology of the Web, with encouraging implications for the design of better crawling algorithms.
    Date
    9. 1.2005 19:20:29
  11. Zeitz, G.: Wissenschaftliche Informationen per Mausklick : Bibliotheken und Forschungsinstitute eröffnen fächerübergreifendes Internetportal - Hessische Einrichtungen sind beteiligt (2003) 0.03
    0.026719138 = product of:
      0.080157414 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 1800) [ClassicSimilarity], result of:
          0.052953172 = score(doc=1800,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=1800)
        0.027204245 = product of:
          0.040806368 = sum of:
            0.02049537 = weight(_text_:29 in 1800) [ClassicSimilarity], result of:
              0.02049537 = score(doc=1800,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15546128 = fieldWeight in 1800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1800)
            0.020311 = weight(_text_:22 in 1800) [ClassicSimilarity], result of:
              0.020311 = score(doc=1800,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 1800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1800)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Wissenschaftler brauchen fundierte Informationen aus Quellen, auf die man sich verlassen kann. Die Suche nach solchen Quellen, wissenschaftlichen Aufsätzen, Dissertationen, Büchern, Datenbanken und Linklisten gestaltete sich bislang schwierig: Bibliotheken oder Verlage von Fachzeitschriften mussten einzeln angesteuert werden, einen zentralen, einheitlichen und einfachen Zugang gab es bislang, nicht. Das soll sich jetzt ändern: Das vom Bundesministerium für Bildung und Forschung (BMBF) und von der Deutschen; Forschungsgemeinsehaft (DFG) geförderte Internetportal "vascoda", das nach dem Willen seiner Initiatoren auch Grundbaustein für die "Digitale Bibliothek Deutschland" sein soll, will Forschern Zugang zu wissenschaftlicher Information unterschiedlichster Fachrichtungen und unterschiedlichster Formate bieten. Das ist bundesweit in dieser Form ebenso einzigartig wie die Tatsache, dass die an vascoda angeschlossenen Datenbanken ausschließlich ;,geprüfte" Informationen liefern sollen: "Fachbibliothekare und Fachwissenschaftler der Anbieter, die sich unter dem vascoda-Dach zusammengeschlossen haben, prüfen, welche Texte vdrfügbar gemacht werden", sagt Christine Burblies von der vascoda-Geschäftsstelle in Hannover. "So können wir gewährleisten, dass die Informationen wissenschaftlichen Ansprüchen genügen." Das macht dann auch den wesentlichen Unterschied zu anderen Suchmaschinen aus: Die Suchmaske des Wissenschaftsportals ist zwar ähnlich einfach zu handhaben wie die Internet-Suchmaschine Google - vascoda verirrt sich aber nicht im World Wide Web. Und während andere Internet-Suchmaschinen nicht den Zugriff auf das so genannte "invisible web" bieten, also beispielsweise auf Bibliothekskataloge, ermöglicht vascoda auch den Zugriff auf dieses unsichtbare Netz. Das Wissenschaftsportal ist unentgeltlich nutzbar, und auch ein Großteil der Informationen ist kostenlos zu beziehen. Es sind aber auch kostenpflichtige Informationen verfügbar - zum Beispiel aus Verlagsangeboten und kommerziellen Datenbanken. Wer Informationen etwa zu soziologischen Fragen sucht, landet sicher auch auf den Internetseiten des Instituts für Soziologie in Darmstadt (www.ifs.tu-darmstadt.de/forsch.htm), das ebenso zu den vascoda-Anbietern gehört wie das Deutsche Institut für Internationale Pädagogik (DIPF) in Frankfurt (www.dipfde/index_1024.htm). In vascoda eingebunden sind zur Zeit 23 virtuelle Fachbibliotheken (ViFas), die vier großen Informationsverbünde EconDoc (Wirtschaft), GetInfo (Naturwissenschaften und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie) und Medizin sowie die Elektronische Zeitschriftenbibliothek (EZB), ein kooperativer Service von 209 Bibliotheken zur Bereitstellung von elektronischen Zeitschriften, -die im Internet publiziert werden. "Wir planen überdies die Erweiterung um das Fach Germanistik, und wenn es soweit ist, wird die Stadt- und Universitätsbibliothek Frankfurt diesen Service bereitstellen", sagt Burblies."
    Date
    17. 7.1996 9:33:22
    Source
    Frankfurter Rundschau. Nr.196 vom 23.8.2003, S.29
  12. Windrath, M.: Auf der Suche nach der richtigen Antwort : Von der Bücherrallye bis zur Web-Recherche: Neuer Schulservice der Stadtbibliothek boomt (2006) 0.03
    0.026719138 = product of:
      0.080157414 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 4994) [ClassicSimilarity], result of:
          0.052953172 = score(doc=4994,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 4994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=4994)
        0.027204245 = product of:
          0.040806368 = sum of:
            0.02049537 = weight(_text_:29 in 4994) [ClassicSimilarity], result of:
              0.02049537 = score(doc=4994,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15546128 = fieldWeight in 4994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4994)
            0.020311 = weight(_text_:22 in 4994) [ClassicSimilarity], result of:
              0.020311 = score(doc=4994,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 4994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4994)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Die Stadtbibliothek wird von Jugendlichen gestürmt, die in Gruppen Hausaufgaben oder Referate schreiben wollen. Viele nutzen den neuen Schulservice, surfen gemeinsam im Computer, durchforsten Bücherbestände, suchen Informationen zu Goethes Faust oder die richtige Antwort auf die Frage: Frisst der Igel Obst? Dabei erhalten sie Unterstützung von Recherche-Experten der Stadtbibliothek. "Wir bestellen Tische und Stühle wie verrückt", freut sich Bibliotheksleiter Dr. Horst Neißer. Die Resonanz auf das Angebot speziell für Lehrer und Schüler ist groß. Anliegen ist es, den richtigen Umgang mit Datenbanken, Suchmaschinen und Digitaler Bibliothek sowie die systematische Suche nach Gedrucktem in den Regalen zu vermitteln. Fressen Igel Obst? Auf diese Testfrage in einem neuen Workshop finden die Schüler mit Hilfe der Medienexperten im Internet allerdings keine eindeutige Antwort. Ja und Nein. Je nach Homepage fallen die Erklärungen höchst unterschiedlich aus. "Das ist dann der erste Aha-Effekt für die Schüler, dass nicht alles wahr ist, was im Netz steht", weiß Bibliothekar Frank Daniel, der den stark erweiterten Schulservice koordiniert. Und wenn sie Erklärungen bei "hausaufgaben.de" zu Goethes Faust Glauben schenken würden, dann käme wohl ein Ungenügend als Note heraus: Da findet sich zum Beispiel die Mär, dass Faust Gretchen geheiratet hat, beide ein Kind bekamen und Gretchen es tötet. "Das gedruckte Wort hat immer weniger Bedeutung für Jugendliche. Und es gibt eine unglaubliche Informationsfülle im Netz, es muss besser vermittelt werden, wie man das Richtige findet", betont Neißer. "Mit der speziellen Aufgabe sind Schulen nicht selten überfordert." Zur Unterstützung entwickelte ein Team der Bibliothek mit Lehrern ein Konzept mit verschiedenen Workshops,das seit diesem Frühjahr besteht: Bibliotheksquiz und Medienmarathon für Grundschulen, eine Rallye durch die Bücherwelten mit Suchaufgaben für die Sekundarstufe 1 statt dröger Bibliotheksführungen, Methodentraining mit Fachrecherche in Sekundarstufe 2," Internetschulungen, Unterricht in der Bibliothek mit eigenem Klassenraum samt Büchern und PCs, Lehrerfortbildung. Fast alle Angebote sind für Kölner kostenlos. Was nicht in der Suchmaschine Google zu finden ist, das existiert für viele Jugendliche heute nicht", beklagen viele Lehrer. Bücher gelten als altmodisch. Was aus dem Netz gefischt wird, wird oft ungeprüft und kritiklos übernommen. Ein paar Absätze aus Webseiten kopiert, eine Textstelle aus Wikipedia - fertig ist das Referat. Da ist der Schulservice die bessere Alternative: "Im Netz kommt man schneller an Infos, in der Bibliothek ist das komplizierter", sagte einer der ersten Nutzer und recherchierte mit Erfolg zum Thema Patrick Süskind und Parfümherstellung. "Aber hier bekommt man mehr raus, was auch stimmt.""
    Date
    3. 5.1997 8:44:22
    Source
    Bergische Landeszeitung. Nr.75 vom 29.3.2006, S.29
  13. Eck, R.; Huber, A.: ¬Die virtuelle Fachbibliothek Anglo-Amerikanischer Kulturkreis, Fachgebiet Anglistik (=VLib-AAC Lit) bei der SUB Göttingen : Konzeption, derzeitige Komponenten, übergreifende Suchmaschine (2001) 0.03
    0.026476588 = product of:
      0.15885952 = sum of:
        0.15885952 = weight(_text_:suchmaschine in 2583) [ClassicSimilarity], result of:
          0.15885952 = score(doc=2583,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.7496553 = fieldWeight in 2583, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.09375 = fieldNorm(doc=2583)
      0.16666667 = coord(1/6)
    
  14. Lügger, J.: Über Suchmaschinen, Verbünde und die Integration von Informationsangeboten : Teil 1: KOBV-Suchmaschine und Math-Net (2000) 0.03
    0.026476588 = product of:
      0.15885952 = sum of:
        0.15885952 = weight(_text_:suchmaschine in 1218) [ClassicSimilarity], result of:
          0.15885952 = score(doc=1218,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.7496553 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.09375 = fieldNorm(doc=1218)
      0.16666667 = coord(1/6)
    
  15. Lügger, J.: Zum Nutzen des Web 2.0 für "Die kleine Kollaboration" in den Wissenschaften : eine Positionsbestimmung für verteilte Arbeitsgruppen, Museen und Bibliotheken (2007) 0.02
    0.024910402 = product of:
      0.0747312 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 3353) [ClassicSimilarity], result of:
          0.066191465 = score(doc=3353,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 3353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3353)
        0.008539738 = product of:
          0.025619213 = sum of:
            0.025619213 = weight(_text_:29 in 3353) [ClassicSimilarity], result of:
              0.025619213 = score(doc=3353,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.19432661 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3353)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der "Benutzerdefinierten Google-Suche Beta" mit Google's PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das "Mitmach-Web". Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. "Kleine Kollaboration" bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Experten aus Gedächtnis-Institutionen mit Ihren Nutzern.
    Source
    ABI-Technik. 29(2009) H.1, S.10-
  16. Neuß, R.: Nützlich, aber ... : Schröders Internet-Initiative (2000) 0.02
    0.019907836 = product of:
      0.059723504 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 5231) [ClassicSimilarity], result of:
          0.052953172 = score(doc=5231,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 5231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=5231)
        0.0067703333 = product of:
          0.020311 = sum of:
            0.020311 = weight(_text_:22 in 5231) [ClassicSimilarity], result of:
              0.020311 = score(doc=5231,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 5231, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5231)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Spät kommt Ihr, doch Ihr kommt, Herr Bundeskanzler: Die gestern von Gerhard Schröder vorgestellte Internet-Initiative ist nicht die erste ihrer Art, aber sie könnte trotzdem hilfreich sein. Schon 1996 hat der damalige Bundesforschungsminister Jürgen Rüttgers seine Initiative "Schulen ans Netz gestartet", 1999 wurde sie von der neuen Bundesregierung verlängert, auch die Länder haben einiges getan. Und bei all diesen Initiativen wurden im Unterschied zu Schröders gestriger Ankündigung konkrete Fördermittel zugesagt. Trotzdem hat bis heute nur jede dritte allgemeinbildende Schulen InternetAnschluss, und in so manchem Lehrerkollegium ist die Neigung begrenzt, sich mit dem neuen Medium zu befassen. Da ist ein zusätzlicher Anstoß aus Berlin sicher nützlich, zumal er auch die Qualifizierung von Arbeitslosen und die Fortentwicklung der Behördenarbeit einbezieht. Der Umgang mit dem Internet entwickelt sich zur fundamentalen Kulturtechnik. Ähnlich wie beim Lesen und Schreiben muss der Staat gewährleisten, dass jeder - auch der sozial schwächste - Bürger diese Technik beherrscht. Zum Beherrschen einer Technik gehört allerdings mehr als nur die richtige Bedienung eines Geräts. Zu bedienen sind Internet-Anwendungen nämlich einfach, und das Wap-fähige Handy hat sich sowieso als Statussymbol in sozialen Brennpunkten durchgesetzt. Sinnvoll eingesetzt werden kann diese Technik nur, wenn die Bildungsvoraussetzungen stimmen: Wer die deutsche Rechtschreibung unzureichend beherrscht, der wird Schwierigkeiten haben, mit einer Internet-Suchmaschine etwas zu finden. Wer nicht gelernt hat, Texte - auch englische Texte - kritisch zu lesen und einander widersprechende Informationen zu werten, der ist der Flut an Gerüchten und dummem Gelaber im Internet hilflos ausgeliefert. Wer keine Ahnung von Wirtschaft hat - und die vermitteln leider die wenigsten Schulen -, der sollte sich nicht im Online-Handel mit Optionsscheinen versuchen. Die vielen Internet-Initiativen greifen also zu kurz, wenn sie vor allem die Zahl der angeschlossenen Schulcomputer zum Thema machen. Ebensowenig wird es einem gering qualifizierten Arbeitslosen helfen, wenn er zwar den Umgang mit einem WWW-Browser lernt, aber keinen Brief schreiben kann. Internet-Initiative Nr. XY wäre nur als Teil einer bundesweiten Qualitätsoffensive im Bildungswesen sinnvoll. Wenn immer wieder nur isoliert das Modewort Internet fällt, dann ist der Verdacht nicht von der Hand zu weisen, dass damit über andere Defizite hinweg getäuscht werden soll"
    Date
    3. 5.1997 8:44:22
  17. Suchen und Finden im Internet (2007) 0.02
    0.018721774 = product of:
      0.11233064 = sum of:
        0.11233064 = weight(_text_:suchmaschine in 484) [ClassicSimilarity], result of:
          0.11233064 = score(doc=484,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.53008634 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.16666667 = coord(1/6)
    
    RSWK
    Internet / Suchmaschine / Benutzeroberfläche / Aufsatzsammlung
    Subject
    Internet / Suchmaschine / Benutzeroberfläche / Aufsatzsammlung
  18. Bohlen, J.T.: ChemGuide und PublishersGuide : Neue spezialisierte Internet-Suchmaschinen des FIZ Chemie Berlin (2000) 0.02
    0.017651059 = product of:
      0.105906345 = sum of:
        0.105906345 = weight(_text_:suchmaschine in 5236) [ClassicSimilarity], result of:
          0.105906345 = score(doc=5236,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4997702 = fieldWeight in 5236, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=5236)
      0.16666667 = coord(1/6)
    
    Abstract
    Suchmaschinen und Web-Verzeichnisse sind gängige Einstiege für Suchen im Internet. Durch die unterschiedlichen Auswahlkriterien, Suchmöglichkeiten und Schwerpunkte der verschiedenen Anbieter unterscheiden sich jedoch die Suchergebnisse erheblich in Umfang und Inhalt. ChemGuide und PublishersGuide sind Suchmaschinen, die thematisch vorausgewählte Internet-Server im Volltext durchsuchen. Eine einfach zu bedienende Benutzeroberfläche in Verbindung mit vielseitigen Suchfunktionen verbessern die Qualität der Suchergebnisse erheblich. Gefundene Seiten können innerhalb der Suchmaschine betrachtet werden, die gefundenen Suchbegriffe werden im Dokument markiert
  19. bay: Google übernimmt Deja-Archiv (2001) 0.02
    0.017651059 = product of:
      0.105906345 = sum of:
        0.105906345 = weight(_text_:suchmaschine in 5636) [ClassicSimilarity], result of:
          0.105906345 = score(doc=5636,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.4997702 = fieldWeight in 5636, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0625 = fieldNorm(doc=5636)
      0.16666667 = coord(1/6)
    
    Abstract
    Deja.com hat sein Archiv mit Diskussionsbeiträgen aus dem Usenet an die Suchmaschine Google verkauft. Die neue Bedienoberfläche (groups.google.com) prüft noch nicht die 500 Millionen Texte, die Deja seit 1995 gesammelt hat; sie werden schrittweise in die eigene, sechs Monate alte Datenbank integriert. Das Usenet lässt sich über das Web (netnews.web.de) oder besser spezielle Software nutzen, etwa (Free) Agent (www.forteinc.com)
  20. Meifert, J.; Weiffen, F.: ¬Die neue Sachlichkeit im Netz : Nach der Euphorie wird das Internet von vielen als eher funktionales Medium genutzt (2005) 0.02
    0.017419357 = product of:
      0.052258067 = sum of:
        0.046334025 = weight(_text_:suchmaschine in 1519) [ClassicSimilarity], result of:
          0.046334025 = score(doc=1519,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.21864946 = fieldWeight in 1519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1519)
        0.005924042 = product of:
          0.017772125 = sum of:
            0.017772125 = weight(_text_:22 in 1519) [ClassicSimilarity], result of:
              0.017772125 = score(doc=1519,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.1354154 = fieldWeight in 1519, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1519)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Wenn ein Firmenname zum Verb mutiert, dann muss etwas passiert sein. "Googeln" ist so ein Wort. Der Duden führt esin den neuen Ausgaben, und in den USA ist es mal als "nützlichstes Wort des Jahres" prämiert worden Die Suchmaschine Google ist für Millionen eins Art virtuelles Eingangstor im Datenfluss geworden. Das sagt viel über die Attraktivität des Internets, aber noch mehr über den mehr und mehr sachlichen Umgang damit. Rund 47 Prozent aller Haushalte verfügen hier zu Lande über einen Internet-Anschluss. Damit liegt Deutschland im europäischen Mittelfeld - nicht so modern wie die Niederländer (66 Prozent), aber den Spaniern (30 Prozent) weit voraus. Bei den Jüngeren ist das Medium längst Alltag, während vielen Senloren die ersten Schritte immer noch schwer fallen (siehe Graphiken). Auf 14,5 Milliarden Euro Umsatz wird der Handel im vermutlich in diesem Jahr steigen Der Einkauf im digitalen Warenhaus ist wie ein Fahrkartenkauf bei der Bahn oder das Erstellen einer Überweisung für viele selbstverständlich geworden 35 Milionen Kunden nehmen finanzielle Transaktionen bei' der Bank online'vor. Nur noch jeder fünfte ist allein auf die Filialstellen angewiesen. 2,5 Prozent des gesamten Umsatzes im Einzelhandel werden inzwischen im Internet getätigt. Fast jedes achte Unternehmen handelt auch online. "Viele gerade aus dem mittelständischen Bereich haben sich den Gegebenheiten des Marktes angepasst", sagt Olaf Roik vom Händlerverband HDE. Sie seien zu "Multichannel-Anbietern" geworden - wohl die sinnvollste Strategie, um gegen "günstiger.de" und Co. zu bestehen.
    Date
    3. 5.1997 8:44:22

Languages

  • d 225
  • e 81
  • hu 3
  • el 1
  • f 1
  • More… Less…

Types

  • a 268
  • m 30
  • el 11
  • s 10
  • x 3
  • r 1
  • More… Less…

Subjects

Classifications