Search (681 results, page 1 of 35)

  • × type_ss:"a"
  • × theme_ss:"Internet"
  1. Beuth, P.: Kurz und fündig : Microsoft setzt jetzt auf Kurzmeldungen (2009) 0.07
    0.06935182 = product of:
      0.13870364 = sum of:
        0.09728119 = weight(_text_:suchmaschine in 3203) [ClassicSimilarity], result of:
          0.09728119 = score(doc=3203,freq=12.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.45906824 = fieldWeight in 3203, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.0363447 = weight(_text_:ranking in 3203) [ClassicSimilarity], result of:
          0.0363447 = score(doc=3203,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.17928566 = fieldWeight in 3203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3203)
        0.00507775 = product of:
          0.015233249 = sum of:
            0.015233249 = weight(_text_:22 in 3203) [ClassicSimilarity], result of:
              0.015233249 = score(doc=3203,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.116070345 = fieldWeight in 3203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3203)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Content
    "Das große Gerangel um die Suchmaschine der Zukunft geht in die nächste Runde. Erst gab Microsoft am gestrigen Donnerstag bekannt, künftig auch die Nachrichten von Twitter- und Facebook-Nutzern in seine Suchergebnisse aufzunehmen. Und nur wenige Stunden später verkündete Google, einen ganz ähnlichen Deal mit Twitter abgeschlossen zu haben. Der mit Facebook könnte bald folgen. Die Konkurrenten integrieren damit in ihre Suchergebnisse, was sie bislang nicht hatten: die Echtzeit-Suche. Google-Vizepräsidentin Marissa Mayer nennt in einem Blog-Eintrag selbst ein Beispiel: "Wenn Sie das nächste Mal nach etwas suchen, bei dem Echtzeit-Beobachtungen hilfreich sind - sagen wir aktuelle Schneebedingungen in Ihrem Lieblings-Skigebiet - werden Sie bei Google auch Twitter-Einträge von Leuten finden, die bereits in dem Gebiet sind und von dort die neuesten Informationen verbreiten." Bei Twitter und Facebook, wo Millionen Nutzer zu jeder Zeit neue Nachrichten zu jedem beliebigen Thema verfassen, kommt bislang keine Suchmaschine mit. So schnell, wie in den Netzwerken etwas Neues veröffentlicht wird, ist keiner der Roboter, die für Google und Microsofts Suchmaschine Bing die Inhalte des Internets durchstöbern.
    Profitieren können alle Beteiligten - Beide Unternehmen brauchen diese Daten aber, weil sich das Suchverhalten der Menschen ändert. Der Harvard-Professor Urs Gasser hat festgestellt, dass junge Internetnutzer die Relevanz einer Information "weniger an der Quelle" messen als daran, "was in ihrer Facebook-Gruppe gelesen und geschrieben wird." Anders ausgedrückt: Sie lassen nicht mehr Nachrichtenseiten oder Google-News entscheiden, was die wichtigsten Themen der Stunde sind, sondern ihre Freunde und Bekannten im Netz. Und die verbreiten ihre Favoriten eben über Facebook oder auch Twitter. In den Netzwerken kursieren vor allem auch Informationen, die bislang unter der Wahrnehmungsschwelle der Suchmaschinen liegen, weil sie nur für einige wenige Menschen und eine begrenzte Zeit interessant sind und deshalb keine entsprechende Internet-Präsenz haben. Zwar kann man auch auf twitter.com die aktuellen Einträge, sogenannte Tweets, nach Begriffen durchsuchen. Doch als eigenständige Suchmaschine ist Twitter der breiten Masse der Internetnutzer nahezu unbekannt. Zudem ist die Auflistung der Suchergebnisse streng chronologisch und zeigt damit viele nutzlose Informationen an. Die erste Betaversion von Bing sortiert die Tweets schon jetzt um einiges intelligenter (weiteres nach dem Seitenwechsel unten). Profitieren können von den Deals alle Beteiligten. Die Suchmaschinen können mehr und vor allem brandaktuelle Informationen anzeigen und werden damit für Werbekunden, die neben diese Suchergebnissen angezeigt werden wollen, interessanter. Denn auf twitter.com selbst gibt es bislang keine Werbung. Das Netzwerk selbst - wie auch Facebook - ist seit seiner Gründung ein Geschäft ohne Geschäftsmodell und auf wohlwollende Geldgeber angewiesen. Die Kooperation mit Google und Microsoft dürfte an sich schon mal eine größere Summe in die Kassen spielen, auch wenn sich bislang keines der Unternehmen dazu äußern will. Wahrscheinlich werden Twitter und Facebook aber auch an den Werbeeinnahmen beteiligt, die die Suchmaschinen mit den neuen Inhalten generieren. Außerdem werden die Netzwerke aufgewertet, weil sie ihre Reichweiten steigern und auch Nicht-Mitglieder erreichen.
    Wie genau eine Suche nach Tweets über eine Suchmaschine aussehen wird, kann man bislang nur bei Microsoft in einer Betaversion unter bing.com/twitter sehen. Das Fachblog Search Engine Land erklärt den Ablauf: An oberster Stelle befindet sich ein Feld mit den derzeit meistdiskutierten Begriffen bei Twitter. Das ist ein erster Gradmesser für die Relevanz eines Themas. Wer dann einen Suchbegriff eingibt, etwa "Dan Brown", bekommt zwei Felder angezeigt. In einem stehen die jüngsten Twitter-Einträge, die sogenannten Tweets, zum Thema Dan Brown. Die jüngsten heißt im besten Fall: veröffentlicht vor einer Minute. Im zweiten Feld stehen die wichtigsten Links zum Thema Dan Brown, die aktuell über Twitter verbreitet werden. Entscheidend für die Qualität der Suchergebnisse ist der Filter von Microsoft. Die Suchmaschine durchwühlt nicht selbst alle Twitterprofile, sonder Twitter liefert in Echtzeit alle veröffentlichten Tweets an Bing über eine Art Standleitung. Dort werden zunächst möglichst alle Duplikate und nicht jugendfreien Inhalte aussortiert. Dann wird ein Ranking erstellt. Kriterien für die Filter sind die Popularität des Twitterers (abzulesen an der Zahl seiner Beobachter, der sogenannten Follower), die Zahl der Weiterleitungen (Retweets) und die Aktualität des Tweets. Das alles dauert noch einige Sekunden. In einer ausgereiften Version aber soll sie in der Lage sein, das millionenfache Gezwitscher nutzerfreundlich und ohne Verzögerung zu sortieren."
    Date
    3. 5.1997 8:44:22
  2. Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004) 0.05
    0.05081504 = product of:
      0.15244511 = sum of:
        0.14652106 = weight(_text_:suchmaschine in 4826) [ClassicSimilarity], result of:
          0.14652106 = score(doc=4826,freq=20.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.69143033 = fieldWeight in 4826, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4826)
        0.005924042 = product of:
          0.017772125 = sum of:
            0.017772125 = weight(_text_:22 in 4826) [ClassicSimilarity], result of:
              0.017772125 = score(doc=4826,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.1354154 = fieldWeight in 4826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4826)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
    Inzwischen hat der Buchversender einige Vorkehrungen getroffen. Unter anderem wurde eine elektronische Sperre errichtet, so dass die Seiten inzwischen nur noch von geübten Computernutzern kopiert oder ausdruckt werden können. Mit "Search Inside the Bock" hat der OnlineRiese seinen ersten Schritt in den heiß umkämpften Markt der Suchmaschinen unternom- men. Schon plant Amazön nach amerikanischen Medienberichten eine weitere Suchmaschine, um Kunden das elektronische Einkaufen zu erleichtern.. Die unter den Codenamen A9 bekannte Suchmaschine soll unter anderem die Preise von Produkten vergleichen und das günstigste Angebot ermitteln. Damit stößt Amazön in einen Markt vor, der bisher in den USA von dem Onlineportal Yahoo oder der Super-Suchmaschine Google beherrscht wurde. Google hat bereits zum Gegenangriff angesetzt. Nach Informationen des Fachmagazins "Publishers Weekly". verhandelt das Unternehmen bereits mit Verlagen, um ebenfalls in die neue Dimension der Buchinhalte vorzudringen."
    Date
    3. 5.1997 8:44:22
  3. Terliesner, J.: Information Retrieval in Wikis : wie können klassische Methoden des Information Retrievals die Suchfunktion eines Wikis bereichern? (2010) 0.05
    0.050706387 = product of:
      0.15211916 = sum of:
        0.07942976 = weight(_text_:suchmaschine in 3504) [ClassicSimilarity], result of:
          0.07942976 = score(doc=3504,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.37482765 = fieldWeight in 3504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.046875 = fieldNorm(doc=3504)
        0.0726894 = weight(_text_:ranking in 3504) [ClassicSimilarity], result of:
          0.0726894 = score(doc=3504,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 3504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=3504)
      0.33333334 = coord(2/6)
    
    Abstract
    Wikis erfreuen sich als gemeinschaftliche Wissenssammlungen wachsender Beliebtheit. Wissenssammlungen können jedoch nur effektiv genutzt werden, wenn geeignete Suchwerkzeuge zur Verfügung stehen, die alle Besonderheiten der Suchumgebung berücksichtigen. Allerdings liefern Suchfunktionen in Wikis häufig nicht relevante Ergebnisse. Dieser Artikel beschreibt den Aufbau und die Funktionsweise einer optimierten Suchmaschine für Wikis, mit welcher dieser Missstand beseitigt werden soll. Um ein Suchergebnis als Ranking präsentieren zu können, muss dies nach bestimmten Kriterien erfolgen. Viele Kriterien aus dem Web können in Wikis nicht übernommen werden. Deshalb ist eine genaue Analyse der Struktur von Wikis erforderlich. Es wird beschrieben wie Suchergebnisse in Clustern dargestellt werden können, die auf der besonderen Struktur von Wikis beruhen. Dieser Artikel bildet die theoretische Grundlage für weitere Forschung, in der die vorgestellten Thesen analysiert werden und durch einen Retrievaltest bestätigt werden sollen.
  4. Keller, R.M.: ¬A bookmarking service for organizing and sharing URLs (1997) 0.04
    0.04063629 = product of:
      0.121908866 = sum of:
        0.0726894 = weight(_text_:ranking in 2721) [ClassicSimilarity], result of:
          0.0726894 = score(doc=2721,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 2721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2721)
        0.049219467 = product of:
          0.0738292 = sum of:
            0.030743055 = weight(_text_:29 in 2721) [ClassicSimilarity], result of:
              0.030743055 = score(doc=2721,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 2721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2721)
            0.04308614 = weight(_text_:22 in 2721) [ClassicSimilarity], result of:
              0.04308614 = score(doc=2721,freq=4.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.32829654 = fieldWeight in 2721, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2721)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Presents WebTagger, an implemented prototype of a personal book marking service that provides both individuals and groups with a customisable means of organizing and accessing Web-based information resources. The service enables users to supply feedback on the utility of these resources relative to their informatio needs, and provides dynamically updated ranking of resources based on incremental user feedback. Individuals may access the service from anywhere on the Internet and require no special software. The service simplifies the process of sharing URLs within groups, in comparison with manual methods involving email. The underlying bookmark organization scheme is more natural and flexible than current hierarchical schemes supported by the major Web browsers and enables rapid access to stored bookmarks
    Date
    1. 8.1996 22:08:06
    17. 1.1999 14:22:14
    Source
    Computer networks and ISDN systems. 29(1997) no.8, S.1103-1114
  5. Zhang, Y.; Jansen, B.J.; Spink, A.: Identification of factors predicting clickthrough in Web searching using neural network analysis (2009) 0.04
    0.037651278 = product of:
      0.112953834 = sum of:
        0.102798335 = weight(_text_:ranking in 2742) [ClassicSimilarity], result of:
          0.102798335 = score(doc=2742,freq=4.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.5070964 = fieldWeight in 2742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=2742)
        0.0101555 = product of:
          0.030466499 = sum of:
            0.030466499 = weight(_text_:22 in 2742) [ClassicSimilarity], result of:
              0.030466499 = score(doc=2742,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23214069 = fieldWeight in 2742, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2742)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    In this research, we aim to identify factors that significantly affect the clickthrough of Web searchers. Our underlying goal is determine more efficient methods to optimize the clickthrough rate. We devise a clickthrough metric for measuring customer satisfaction of search engine results using the number of links visited, number of queries a user submits, and rank of clicked links. We use a neural network to detect the significant influence of searching characteristics on future user clickthrough. Our results show that high occurrences of query reformulation, lengthy searching duration, longer query length, and the higher ranking of prior clicked links correlate positively with future clickthrough. We provide recommendations for leveraging these findings for improving the performance of search engine retrieval and result ranking, along with implications for search engine marketing.
    Date
    22. 3.2009 17:49:11
  6. Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008) 0.04
    0.036594182 = product of:
      0.10978255 = sum of:
        0.05732349 = weight(_text_:suchmaschine in 1797) [ClassicSimilarity], result of:
          0.05732349 = score(doc=1797,freq=6.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.27050856 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
        0.05245906 = weight(_text_:ranking in 1797) [ClassicSimilarity], result of:
          0.05245906 = score(doc=1797,freq=6.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.25877658 = fieldWeight in 1797, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1797)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Suchmaschine und das Online-Lexikon greifen sich gegenseitig an. Beide wollen es besser können als der andere.
    Content
    Knol? Knol ist bekannter unter dem Namen gPedia oder auch Googlepedia, ein Online-Lexikon wie Wikipedia. Google greift Wikipedia an. Warum? Weil Wikipedia Google angegriffen hat. Denn vor zirka einem Jahr verkündete Wiki-Gründer Jimmy Wales, dass er eine eigene Suchmaschine konzipiert, die nach Wiki-Prinzipien arbeitet. Die Verantwortlichen bei Google, die eh in jedem Bereich des Internets Fuß fassen möchten, griffen den Fehdehandschuh auf und riefen Knol ins Leben. Wikia Search kann der Besucher schon ausprobieren (search.wikia.com/wiki/Search_Wikia/de), zu Knol gibt es nur einen Bild (www.google.com/help/knol_screenshot.ht ml) und eine Reihe von Ideen (knolstuff.com). Beide Neuschöpfungen versuchen, die Fehler des konkurrierenden Vorbilds zu vermeiden, um auf Dauer besser zu sein. Das Nachschlagewerk Der Hauptunterschied zwischen Knol - der Name kommt von Knowledge - und Wikipedia betrifft die Rolle der Autoren. Bei Wiki sind Autoren und Leser etwa gleichwertig, so dass der Leser, wenn er einen Fehler findet, sofort in die Rolle des Autors wechselt und Korrekturen oder Ergänzungen unmittelbar am Text vornimmt. Anders bei Knol, denn hier rückt der Autor stärker in den Vordergrund. Er ist mit Bild rechts oben in der Ecke seines Textes sichtbar und der Leser findet Informationen über ihn. Im Zentrum steht nicht die Weisheit der Vielen, sondern die Sachkunde des Experten. Dieser behält im Folgenden die Kontrolle über seinen Text, indem er beispielsweise Ergänzungen genehmigt oder nicht. So ist eine gewisse Einheitlichkeit gewahrt. Wem der Text also nicht gefällt, kann diesen nicht ändern. Aber er kann selbst einen Text zum gleichen Thema schreiben. Verschiedene Sichtweisen eines Themas konkurrieren also nicht in einem Text wie bei Wikipedia, was oft zu skurrilen Grabenkämpfen führt, sondern in eigenständigen Werken. Der Leser hat dann die Wahl, wobei Bewertungen anderer Leser ihm bei der Auswahl helfen. Denn jeder Leser kann einen Knol-Artikel kommentieren oder rezensieren (ohne dass der Autor das zensieren könnte) und mit Sternchen bewerten. So gibt es für die Gemeinschaft die Möglichkeit, eine qualitative Auswahl und ein Ranking von Texten vorzunehmen.
    Der Autor hat darüber hinaus die Möglichkeit etwas mit seinen Texten zu verdienen. Denn er kann Google-Werbung freischalten und die Firma beteiligt ihn an den Einnahmen. So hat er noch einen Anreiz mehr, gute Qualität zu liefern und im Ranking zu steigen. Autoren, die allerdings keine Werbung mögen, weil diese beispielsweise ihr Renommee als Wissenschafter schädigt, müssen Google-Ads nicht freigeben. Noch ein Unterschied zu Wikipedia liegt in der Art der Texte. Die Wiki-Macher legen starken Wert darauf, dass sich in der Online-Enzyklopädie nur Artikel mit lexikalischem Interesse finden, das heißt es gibt eine lange Liste mit Relevanzkriterien (de.wikipedia.org/wiki/Wikipedia:Relevanzkriterien), die regeln, ob ein Thema "enzyklopädische Bedeutung" hat oder nicht. Das alles soll es bei Knol nicht geben. Alle Arten von Sachtexten sind erwünscht also explizit auch Anleitungen ("So bauen Sie ein Vogelhäuschen") oder Produktbeschreibungen ("Das neue Handy..."). Da ist die Grenze zur Werbung kaum zu ziehen, was auch einer der Hauptkritikpunkte an Knol ist: "Man wird dort schrecklich viele Artikel über Viagra sehen", macht sich Wikipedia-Gründer Jimmy Wales nicht ganz zu unrecht lustig. Der Hauptangriff gegen Wikipedia wird sein, dass Knol-Artikel auch in den Suchergebnissen von Google zu finden sein werden, sicher weit oben und an der Stelle, wo jetzt prominent die Wiki-Texte liegen. So wird es zu einer gewissen Verdrängung kommen. Umgekehrt hat Google aber angekündigt, dass die Knol-Texte auch für andere Suchmaschinen offen sind, hier also kein Zaun für die Konkurrenz entsteht. Von Knol wie gesagt gibt es nur einen Screenshot, der einen Entwurf eines Lexikonartikels zeigt. Neben dem schon erwähnten Autorenkasten, findet sich in Kopf eine Kurzfassung des Textes mit einer Reihe von Metainformationen. Das sind in erster Line ein Inhaltsverzeichnis sowie die Zahl der Sterne, der Kommentare und der Rezensionen. Der Text selbst (über Schlafstörungen) ist ansprechend gesetzt, verfügt über Fotos sowie Grafiken und zeigt am Ende weiterführende Bücher und Links.
    Der Autorenkasten zeigt die Berufsbezeichnung der Autorin, weitere Artikel von ihr, zum Thema passende Artikel und eben die Google-Werbung. Außerdem hat sich die Autorin dafür entschieden, den Artikel unter die Creative-Commons-Lizenz (CCL) zu stellen, so dass andere Autoren das Material unter bestimmten Einschränkungen, zum Beispiel die Nennung des Urhebers, weiter verwenden können. Ein Knot-Artikel könnte so auch bei Wikipedia landen. Ob die CCL eine Google-Vorgabe für alle Texte im Lexikon wird, ist noch nicht bekannt. Die Suche Die Wiki-Konkurrenz zu Google heißt Wikia-Search. Der Namensbestandteil Wikia verrät den Urheber des Projekts, denn es handelt sich nicht um die gemeinnützige WikimediaFoundation, die Betreiberin von Wikipedia, sondern um Wikia Inc., ein gewinnorientiertes Unternehmen des Wiki-Gründers Jimmy Wales. Die Anwender, die die Suchergebnisse von Wikia-Search verbessern, arbeiten also auch unbezahlt am Gewinn des Firmengründers mit. Seit YouTube ein weit verbreitetes Web-2.0-Phänomen. Die Wikia-Suche soll sich in erster Linie durch Offenheit zu Google unterscheiden. Das heißt, der Such- und Ranking-Algorithmus ist Open Source. Jeder kann wissen, warum seine Seite an welcher Position landet. Außerdem soll es Programmierschnittstellen (APIs) geben. Das ist nicht nur für die ehrlichen Webmaster gut, sondern auch für Spammer, denen Wikia die Manipulation erleichtert. Wie der Betreiber dagegen vorgehen will, dazu gibt es noch keine Aussagen. Eine gewisse Kontrolle werden die Anwender ausüben, die die Ergebnisse bewerten können. So wandert Spam schnell nach unten und die guten Resultate nach oben.
    Die Teilnahme der Anwender erfolgt über zwei Werkzeuge. Einmal gibt es die Miniartikel, die ein Suchwort kurz erklären oder verschiedene Bedeutungen eines Begriffs aufzeigen. Dieses Wissen soll die Suchmaschine einmal verwenden, um die Suchergebnisse in einen besseren Kontext zu binden (handelt es sich um den britischen oder den afrikanischen Jaguar?). Ferner kann jeder Suchende bis zu fünf Sternchen für einzelne Treffer vergeben. Das soll künftig ebenfalls das Ergebnis beeinflussen und verbessern. Wie man sieht, sind die interessanten und Erfolg versprechenden Funktionen bislang noch abgeschaltet. Weiter beachtenswert ist bei Wikia die Möglichkeit, den Index zu wechseln. Für viele lexikalische Suchen eignet sich die White List, die nur eine zwar lange, aber festgelegte Liste von Seiten durchsucht. Spam ist dabei fast ausgeschlossen, während die Treffer zwar nicht allumfassend sind, aber eine hohe Relevanz besitzen. Sowohl Wikia als auch Knol sehen nach viel versprechenden Neuansätzen aus und beide haben eins gemeinsam: Sie bringen frischen Wind in festgefügte Strukturen, denn sowohl dem allmächtigen Google als auch der selbstherrlichen Wikipedia kann ein bisschen Konkurrenz nicht schaden."
  7. Friedrich, H.: Cross Database Search - Datenbankübergreifende Suche (2001) 0.03
    0.034874562 = product of:
      0.10462368 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 165) [ClassicSimilarity], result of:
          0.09266805 = score(doc=165,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=165)
        0.011955633 = product of:
          0.035866898 = sum of:
            0.035866898 = weight(_text_:29 in 165) [ClassicSimilarity], result of:
              0.035866898 = score(doc=165,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.27205724 = fieldWeight in 165, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=165)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Zentralstelle für Agrardokumentation und -information (ZADI) entwickelt derzeit eine Multi-Host-Suchmaschine (MHS) zur simultanen Suche in mehreren, an unterschiedlichen Orten befindlichen Datenbanken. Erste Anwendungen der Technologie befinden sich in einem Prototypen des Bundesinformationssystems Genetische Ressourcen (BIG) sowie in einer Multi-Host-Literatursuchmaschine der Food and Agriculture Organization (FAO) der Vereinten Nationen im Test. Der Beitrag stellt Notwendigkeit und Anforderungen dar und erörtert zur Problemlösung eingesetzte Methoden. Die implementierte Funktionalität wird anhand des für die FAO entwickelten Prototypen zur Literatursuche erläutert
    Date
    20. 1.2002 18:42:29
  8. Hehl, H.: Änderungen und Erweiterungen im Multisuchsystem E-Connect (2000) 0.03
    0.034838714 = product of:
      0.10451613 = sum of:
        0.09266805 = weight(_text_:suchmaschine in 5552) [ClassicSimilarity], result of:
          0.09266805 = score(doc=5552,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.43729892 = fieldWeight in 5552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5552)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 5552) [ClassicSimilarity], result of:
              0.03554425 = score(doc=5552,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 5552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5552)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Das in dieser Zeitschrift bereits vorgestellte Multisuchsystem E-Connect hat mittlerweile einige äußere und innere Anderungen und Erweiterungen erfahren. Abbildung 1 zeigt das Suchformular für die Suche in mehreren allgemeinen Aufsatz- und Verlagsdatenbanken. Ein entsprechendes Suchformular für die Suche nach Zeitschriftenaufsätzen mehrerer bzw. einzelner Fachgebiete ist ähnlich aufgebaut und enthält u. a. den vereinfachten Zugang zu dem fachlich den gesamten STIVI-Bereich umfassenden EnergyPortal Search und zu weiteren Datenbanken von elektronischen Aufsätzen, Reports und Preprints. Von der Startseite aus kann man jetzt auch über eine Suchmaschine sowohl die im Multisuchsystem als auch die in den Bibliographischen Datenbanken im Internet enthaltenen etwa 160 Datenbanken suchen und anwählen. Damit ist eine Art von digitaler Bibliothek entstanden, die vor allem elektronisch verfügbare Dokumente erschließt
    Date
    26.12.2000 10:25:22
  9. Chang, C.-H.; Hsu, C.-C.: Integrating query expansion and conceptual relevance feedback for personalized Web information retrieval (1998) 0.03
    0.032217465 = product of:
      0.09665239 = sum of:
        0.084804304 = weight(_text_:ranking in 1319) [ClassicSimilarity], result of:
          0.084804304 = score(doc=1319,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 1319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1319)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 1319) [ClassicSimilarity], result of:
              0.03554425 = score(doc=1319,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 1319, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1319)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Keyword based querying has been an immediate and efficient way to specify and retrieve related information that the user inquired. However, conventional document ranking based on an automatic assessment of document relevance to the query may not be the best approach when little information is given. Proposes an idea to integrate 2 existing techniques, query expansion and relevance feedback to achieve a concept-based information search for the Web
    Date
    1. 8.1996 22:08:06
  10. Hsieh-Yee, I.: ¬The retrieval power of selected search engines : how well do they address general reference questions and subject questions? (1998) 0.03
    0.032217465 = product of:
      0.09665239 = sum of:
        0.084804304 = weight(_text_:ranking in 2186) [ClassicSimilarity], result of:
          0.084804304 = score(doc=2186,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.4183332 = fieldWeight in 2186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2186)
        0.011848084 = product of:
          0.03554425 = sum of:
            0.03554425 = weight(_text_:22 in 2186) [ClassicSimilarity], result of:
              0.03554425 = score(doc=2186,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.2708308 = fieldWeight in 2186, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2186)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Evaluates the performance of 8 major Internet search engines in answering 21 real reference questions and 5 made up subject questions. Reports on the retrieval and relevancy ranking abilities of the search engines. Concludes that the search engines did not produce good results for the reference questions unlike for the subject questions. The best engines are identified by type of questions, with Infoseek best for the subject questions, and OpenText best for refrence questions
    Date
    25.12.1998 19:22:51
  11. Internet Archive : Neue Zeit-Suchmaschine (2003) 0.03
    0.031202957 = product of:
      0.18721774 = sum of:
        0.18721774 = weight(_text_:suchmaschine in 2257) [ClassicSimilarity], result of:
          0.18721774 = score(doc=2257,freq=4.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.8834773 = fieldWeight in 2257, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.078125 = fieldNorm(doc=2257)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Internet Archive hat eine neue Suchmaschine namens Recall entwickelt, mit der über 11 Milliarden archivierte Webseiten durchsucht werden können. Da jedem Begriff Themen und Kategorien zugeordnet sind, kann der Anwender seine Suche noch weiter spezifizieren. Aktuell sind rund 50.000 Kategorien mit insgesamt 1,4 Millionen Suchbegriffen erfasst
  12. Menczer, F.: Lexical and semantic clustering by Web links (2004) 0.03
    0.027645696 = product of:
      0.082937084 = sum of:
        0.0726894 = weight(_text_:ranking in 3090) [ClassicSimilarity], result of:
          0.0726894 = score(doc=3090,freq=2.0), product of:
            0.20271951 = queryWeight, product of:
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.03747799 = queryNorm
            0.35857132 = fieldWeight in 3090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4090285 = idf(docFreq=537, maxDocs=44218)
              0.046875 = fieldNorm(doc=3090)
        0.010247685 = product of:
          0.030743055 = sum of:
            0.030743055 = weight(_text_:29 in 3090) [ClassicSimilarity], result of:
              0.030743055 = score(doc=3090,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.23319192 = fieldWeight in 3090, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3090)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Recent Web-searching and -mining tools are combining text and link analysis to improve ranking and crawling algorithms. The central assumption behind such approaches is that there is a correiation between the graph structure of the Web and the text and meaning of pages. Here I formalize and empirically evaluate two general conjectures drawing connections from link information to lexical and semantic Web content. The link-content conjecture states that a page is similar to the pages that link to it, and the link-cluster conjecture that pages about the same topic are clustered together. These conjectures are offen simply assumed to hold, and Web search tools are built an such assumptions. The present quantitative confirmation sheds light an the connection between the success of the latest Web-mining techniques and the small world topology of the Web, with encouraging implications for the design of better crawling algorithms.
    Date
    9. 1.2005 19:20:29
  13. Zeitz, G.: Wissenschaftliche Informationen per Mausklick : Bibliotheken und Forschungsinstitute eröffnen fächerübergreifendes Internetportal - Hessische Einrichtungen sind beteiligt (2003) 0.03
    0.026719138 = product of:
      0.080157414 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 1800) [ClassicSimilarity], result of:
          0.052953172 = score(doc=1800,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 1800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=1800)
        0.027204245 = product of:
          0.040806368 = sum of:
            0.02049537 = weight(_text_:29 in 1800) [ClassicSimilarity], result of:
              0.02049537 = score(doc=1800,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15546128 = fieldWeight in 1800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1800)
            0.020311 = weight(_text_:22 in 1800) [ClassicSimilarity], result of:
              0.020311 = score(doc=1800,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 1800, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1800)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Wissenschaftler brauchen fundierte Informationen aus Quellen, auf die man sich verlassen kann. Die Suche nach solchen Quellen, wissenschaftlichen Aufsätzen, Dissertationen, Büchern, Datenbanken und Linklisten gestaltete sich bislang schwierig: Bibliotheken oder Verlage von Fachzeitschriften mussten einzeln angesteuert werden, einen zentralen, einheitlichen und einfachen Zugang gab es bislang, nicht. Das soll sich jetzt ändern: Das vom Bundesministerium für Bildung und Forschung (BMBF) und von der Deutschen; Forschungsgemeinsehaft (DFG) geförderte Internetportal "vascoda", das nach dem Willen seiner Initiatoren auch Grundbaustein für die "Digitale Bibliothek Deutschland" sein soll, will Forschern Zugang zu wissenschaftlicher Information unterschiedlichster Fachrichtungen und unterschiedlichster Formate bieten. Das ist bundesweit in dieser Form ebenso einzigartig wie die Tatsache, dass die an vascoda angeschlossenen Datenbanken ausschließlich ;,geprüfte" Informationen liefern sollen: "Fachbibliothekare und Fachwissenschaftler der Anbieter, die sich unter dem vascoda-Dach zusammengeschlossen haben, prüfen, welche Texte vdrfügbar gemacht werden", sagt Christine Burblies von der vascoda-Geschäftsstelle in Hannover. "So können wir gewährleisten, dass die Informationen wissenschaftlichen Ansprüchen genügen." Das macht dann auch den wesentlichen Unterschied zu anderen Suchmaschinen aus: Die Suchmaske des Wissenschaftsportals ist zwar ähnlich einfach zu handhaben wie die Internet-Suchmaschine Google - vascoda verirrt sich aber nicht im World Wide Web. Und während andere Internet-Suchmaschinen nicht den Zugriff auf das so genannte "invisible web" bieten, also beispielsweise auf Bibliothekskataloge, ermöglicht vascoda auch den Zugriff auf dieses unsichtbare Netz. Das Wissenschaftsportal ist unentgeltlich nutzbar, und auch ein Großteil der Informationen ist kostenlos zu beziehen. Es sind aber auch kostenpflichtige Informationen verfügbar - zum Beispiel aus Verlagsangeboten und kommerziellen Datenbanken. Wer Informationen etwa zu soziologischen Fragen sucht, landet sicher auch auf den Internetseiten des Instituts für Soziologie in Darmstadt (www.ifs.tu-darmstadt.de/forsch.htm), das ebenso zu den vascoda-Anbietern gehört wie das Deutsche Institut für Internationale Pädagogik (DIPF) in Frankfurt (www.dipfde/index_1024.htm). In vascoda eingebunden sind zur Zeit 23 virtuelle Fachbibliotheken (ViFas), die vier großen Informationsverbünde EconDoc (Wirtschaft), GetInfo (Naturwissenschaften und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie) und Medizin sowie die Elektronische Zeitschriftenbibliothek (EZB), ein kooperativer Service von 209 Bibliotheken zur Bereitstellung von elektronischen Zeitschriften, -die im Internet publiziert werden. "Wir planen überdies die Erweiterung um das Fach Germanistik, und wenn es soweit ist, wird die Stadt- und Universitätsbibliothek Frankfurt diesen Service bereitstellen", sagt Burblies."
    Date
    17. 7.1996 9:33:22
    Source
    Frankfurter Rundschau. Nr.196 vom 23.8.2003, S.29
  14. Windrath, M.: Auf der Suche nach der richtigen Antwort : Von der Bücherrallye bis zur Web-Recherche: Neuer Schulservice der Stadtbibliothek boomt (2006) 0.03
    0.026719138 = product of:
      0.080157414 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 4994) [ClassicSimilarity], result of:
          0.052953172 = score(doc=4994,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 4994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=4994)
        0.027204245 = product of:
          0.040806368 = sum of:
            0.02049537 = weight(_text_:29 in 4994) [ClassicSimilarity], result of:
              0.02049537 = score(doc=4994,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15546128 = fieldWeight in 4994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4994)
            0.020311 = weight(_text_:22 in 4994) [ClassicSimilarity], result of:
              0.020311 = score(doc=4994,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 4994, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4994)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Die Stadtbibliothek wird von Jugendlichen gestürmt, die in Gruppen Hausaufgaben oder Referate schreiben wollen. Viele nutzen den neuen Schulservice, surfen gemeinsam im Computer, durchforsten Bücherbestände, suchen Informationen zu Goethes Faust oder die richtige Antwort auf die Frage: Frisst der Igel Obst? Dabei erhalten sie Unterstützung von Recherche-Experten der Stadtbibliothek. "Wir bestellen Tische und Stühle wie verrückt", freut sich Bibliotheksleiter Dr. Horst Neißer. Die Resonanz auf das Angebot speziell für Lehrer und Schüler ist groß. Anliegen ist es, den richtigen Umgang mit Datenbanken, Suchmaschinen und Digitaler Bibliothek sowie die systematische Suche nach Gedrucktem in den Regalen zu vermitteln. Fressen Igel Obst? Auf diese Testfrage in einem neuen Workshop finden die Schüler mit Hilfe der Medienexperten im Internet allerdings keine eindeutige Antwort. Ja und Nein. Je nach Homepage fallen die Erklärungen höchst unterschiedlich aus. "Das ist dann der erste Aha-Effekt für die Schüler, dass nicht alles wahr ist, was im Netz steht", weiß Bibliothekar Frank Daniel, der den stark erweiterten Schulservice koordiniert. Und wenn sie Erklärungen bei "hausaufgaben.de" zu Goethes Faust Glauben schenken würden, dann käme wohl ein Ungenügend als Note heraus: Da findet sich zum Beispiel die Mär, dass Faust Gretchen geheiratet hat, beide ein Kind bekamen und Gretchen es tötet. "Das gedruckte Wort hat immer weniger Bedeutung für Jugendliche. Und es gibt eine unglaubliche Informationsfülle im Netz, es muss besser vermittelt werden, wie man das Richtige findet", betont Neißer. "Mit der speziellen Aufgabe sind Schulen nicht selten überfordert." Zur Unterstützung entwickelte ein Team der Bibliothek mit Lehrern ein Konzept mit verschiedenen Workshops,das seit diesem Frühjahr besteht: Bibliotheksquiz und Medienmarathon für Grundschulen, eine Rallye durch die Bücherwelten mit Suchaufgaben für die Sekundarstufe 1 statt dröger Bibliotheksführungen, Methodentraining mit Fachrecherche in Sekundarstufe 2," Internetschulungen, Unterricht in der Bibliothek mit eigenem Klassenraum samt Büchern und PCs, Lehrerfortbildung. Fast alle Angebote sind für Kölner kostenlos. Was nicht in der Suchmaschine Google zu finden ist, das existiert für viele Jugendliche heute nicht", beklagen viele Lehrer. Bücher gelten als altmodisch. Was aus dem Netz gefischt wird, wird oft ungeprüft und kritiklos übernommen. Ein paar Absätze aus Webseiten kopiert, eine Textstelle aus Wikipedia - fertig ist das Referat. Da ist der Schulservice die bessere Alternative: "Im Netz kommt man schneller an Infos, in der Bibliothek ist das komplizierter", sagte einer der ersten Nutzer und recherchierte mit Erfolg zum Thema Patrick Süskind und Parfümherstellung. "Aber hier bekommt man mehr raus, was auch stimmt.""
    Date
    3. 5.1997 8:44:22
    Source
    Bergische Landeszeitung. Nr.75 vom 29.3.2006, S.29
  15. Eck, R.; Huber, A.: ¬Die virtuelle Fachbibliothek Anglo-Amerikanischer Kulturkreis, Fachgebiet Anglistik (=VLib-AAC Lit) bei der SUB Göttingen : Konzeption, derzeitige Komponenten, übergreifende Suchmaschine (2001) 0.03
    0.026476588 = product of:
      0.15885952 = sum of:
        0.15885952 = weight(_text_:suchmaschine in 2583) [ClassicSimilarity], result of:
          0.15885952 = score(doc=2583,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.7496553 = fieldWeight in 2583, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.09375 = fieldNorm(doc=2583)
      0.16666667 = coord(1/6)
    
  16. Lügger, J.: Über Suchmaschinen, Verbünde und die Integration von Informationsangeboten : Teil 1: KOBV-Suchmaschine und Math-Net (2000) 0.03
    0.026476588 = product of:
      0.15885952 = sum of:
        0.15885952 = weight(_text_:suchmaschine in 1218) [ClassicSimilarity], result of:
          0.15885952 = score(doc=1218,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.7496553 = fieldWeight in 1218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.09375 = fieldNorm(doc=1218)
      0.16666667 = coord(1/6)
    
  17. Lügger, J.: Zum Nutzen des Web 2.0 für "Die kleine Kollaboration" in den Wissenschaften : eine Positionsbestimmung für verteilte Arbeitsgruppen, Museen und Bibliotheken (2007) 0.02
    0.024910402 = product of:
      0.0747312 = sum of:
        0.066191465 = weight(_text_:suchmaschine in 3353) [ClassicSimilarity], result of:
          0.066191465 = score(doc=3353,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.31235638 = fieldWeight in 3353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3353)
        0.008539738 = product of:
          0.025619213 = sum of:
            0.025619213 = weight(_text_:29 in 3353) [ClassicSimilarity], result of:
              0.025619213 = score(doc=3353,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.19432661 = fieldWeight in 3353, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3353)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Gemeinsame Web-Auftritte zu organisieren, die sich über mehrere Institutionen und Fachgebiete erstrecken, ist eine anspruchsvolle und faszinierende Aufgabe, die auf verschiedene Weise gelingen, aber auch scheitern kann. Wer sich daran versucht, tut gut daran, sich über bestimmte Prinzipien und technische Mittel zu informieren, die das fortgeschrittene Web ihm heute bietet. Das Internet, das World Wide Web und das moderne Web 2.0 sind in einer fast zwanzig Jahre dauernden Kollaboration einer globalen Gemeinschaft von Entwicklern und Anwendern entstanden. Es enthält heute eine Fülle sofort einsetzbarer Komponenten, von der "Benutzerdefinierten Google-Suche Beta" mit Google's PageRanking auf ausgewählten Web-Seiten bis hin zum automatisierten Web-Server mit Content-Management für das "Mitmach-Web". Der Artikel stellt nur eine kleine Auswahl solcher Lösungen vor und macht den Versuch, einige Prinzipien des Web 2.0 so herauszuarbeiten, dass die notwendige Kommunikation zwischen Managern, Technikern, Redakteuren und Organisatoren in der kleinen Kollaboration unterstützt wird. "Kleine Kollaboration" bedeutet hier, dass es nicht um die globale Vernetzung von technischen Großgeräten der e-Science gehen soll, auch nicht um die Super-Suchmaschine in Europa, sondern um die Unterstützung der Zusammenarbeit und Kommunikation von Wissenschaftlern und Experten aus Gedächtnis-Institutionen mit Ihren Nutzern.
    Source
    ABI-Technik. 29(2009) H.1, S.10-
  18. Lutz, H.: Back to business : was CompuServe Unternehmen bietet (1997) 0.02
    0.021875318 = product of:
      0.1312519 = sum of:
        0.1312519 = product of:
          0.19687785 = sum of:
            0.08198148 = weight(_text_:29 in 6569) [ClassicSimilarity], result of:
              0.08198148 = score(doc=6569,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.6218451 = fieldWeight in 6569, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=6569)
            0.11489637 = weight(_text_:22 in 6569) [ClassicSimilarity], result of:
              0.11489637 = score(doc=6569,freq=4.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.8754574 = fieldWeight in 6569, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=6569)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
    Source
    Cogito. 1997, H.1, S.22-23
  19. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.02
    0.02144154 = product of:
      0.06432462 = sum of:
        0.03971488 = weight(_text_:suchmaschine in 3080) [ClassicSimilarity], result of:
          0.03971488 = score(doc=3080,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.18741383 = fieldWeight in 3080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3080)
        0.024609733 = product of:
          0.0369146 = sum of:
            0.0153715275 = weight(_text_:29 in 3080) [ClassicSimilarity], result of:
              0.0153715275 = score(doc=3080,freq=2.0), product of:
                0.13183585 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03747799 = queryNorm
                0.11659596 = fieldWeight in 3080, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
            0.02154307 = weight(_text_:22 in 3080) [ClassicSimilarity], result of:
              0.02154307 = score(doc=3080,freq=4.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.16414827 = fieldWeight in 3080, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3080)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
    Date
    24. 8.2016 9:29:24
  20. Neuß, R.: Nützlich, aber ... : Schröders Internet-Initiative (2000) 0.02
    0.019907836 = product of:
      0.059723504 = sum of:
        0.052953172 = weight(_text_:suchmaschine in 5231) [ClassicSimilarity], result of:
          0.052953172 = score(doc=5231,freq=2.0), product of:
            0.21191008 = queryWeight, product of:
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03747799 = queryNorm
            0.2498851 = fieldWeight in 5231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6542544 = idf(docFreq=420, maxDocs=44218)
              0.03125 = fieldNorm(doc=5231)
        0.0067703333 = product of:
          0.020311 = sum of:
            0.020311 = weight(_text_:22 in 5231) [ClassicSimilarity], result of:
              0.020311 = score(doc=5231,freq=2.0), product of:
                0.13124153 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03747799 = queryNorm
                0.15476047 = fieldWeight in 5231, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5231)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "Spät kommt Ihr, doch Ihr kommt, Herr Bundeskanzler: Die gestern von Gerhard Schröder vorgestellte Internet-Initiative ist nicht die erste ihrer Art, aber sie könnte trotzdem hilfreich sein. Schon 1996 hat der damalige Bundesforschungsminister Jürgen Rüttgers seine Initiative "Schulen ans Netz gestartet", 1999 wurde sie von der neuen Bundesregierung verlängert, auch die Länder haben einiges getan. Und bei all diesen Initiativen wurden im Unterschied zu Schröders gestriger Ankündigung konkrete Fördermittel zugesagt. Trotzdem hat bis heute nur jede dritte allgemeinbildende Schulen InternetAnschluss, und in so manchem Lehrerkollegium ist die Neigung begrenzt, sich mit dem neuen Medium zu befassen. Da ist ein zusätzlicher Anstoß aus Berlin sicher nützlich, zumal er auch die Qualifizierung von Arbeitslosen und die Fortentwicklung der Behördenarbeit einbezieht. Der Umgang mit dem Internet entwickelt sich zur fundamentalen Kulturtechnik. Ähnlich wie beim Lesen und Schreiben muss der Staat gewährleisten, dass jeder - auch der sozial schwächste - Bürger diese Technik beherrscht. Zum Beherrschen einer Technik gehört allerdings mehr als nur die richtige Bedienung eines Geräts. Zu bedienen sind Internet-Anwendungen nämlich einfach, und das Wap-fähige Handy hat sich sowieso als Statussymbol in sozialen Brennpunkten durchgesetzt. Sinnvoll eingesetzt werden kann diese Technik nur, wenn die Bildungsvoraussetzungen stimmen: Wer die deutsche Rechtschreibung unzureichend beherrscht, der wird Schwierigkeiten haben, mit einer Internet-Suchmaschine etwas zu finden. Wer nicht gelernt hat, Texte - auch englische Texte - kritisch zu lesen und einander widersprechende Informationen zu werten, der ist der Flut an Gerüchten und dummem Gelaber im Internet hilflos ausgeliefert. Wer keine Ahnung von Wirtschaft hat - und die vermitteln leider die wenigsten Schulen -, der sollte sich nicht im Online-Handel mit Optionsscheinen versuchen. Die vielen Internet-Initiativen greifen also zu kurz, wenn sie vor allem die Zahl der angeschlossenen Schulcomputer zum Thema machen. Ebensowenig wird es einem gering qualifizierten Arbeitslosen helfen, wenn er zwar den Umgang mit einem WWW-Browser lernt, aber keinen Brief schreiben kann. Internet-Initiative Nr. XY wäre nur als Teil einer bundesweiten Qualitätsoffensive im Bildungswesen sinnvoll. Wenn immer wieder nur isoliert das Modewort Internet fällt, dann ist der Verdacht nicht von der Hand zu weisen, dass damit über andere Defizite hinweg getäuscht werden soll"
    Date
    3. 5.1997 8:44:22

Years

Languages

Types