Search (660 results, page 1 of 33)

  • × language_ss:"d"
  • × year_i:[2000 TO 2010}
  1. Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008) 0.19
    0.18970858 = product of:
      0.37941715 = sum of:
        0.09485429 = product of:
          0.28456286 = sum of:
            0.28456286 = weight(_text_:3a in 140) [ClassicSimilarity], result of:
              0.28456286 = score(doc=140,freq=2.0), product of:
                0.3797425 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04479146 = queryNorm
                0.7493574 = fieldWeight in 140, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0625 = fieldNorm(doc=140)
          0.33333334 = coord(1/3)
        0.28456286 = weight(_text_:2f in 140) [ClassicSimilarity], result of:
          0.28456286 = score(doc=140,freq=2.0), product of:
            0.3797425 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04479146 = queryNorm
            0.7493574 = fieldWeight in 140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=140)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: https://studylibde.com/doc/13053640/richard-schrodt. Vgl. auch: http%3A%2F%2Fwww.univie.ac.at%2FGermanistik%2Fschrodt%2Fvorlesung%2Fwissenschaftssprache.doc&usg=AOvVaw1lDLDR6NFf1W0-oC9mEUJf.
  2. Donsbach, W.: Wahrheit in den Medien : über den Sinn eines methodischen Objektivitätsbegriffes (2001) 0.12
    0.118567854 = product of:
      0.23713571 = sum of:
        0.059283927 = product of:
          0.17785178 = sum of:
            0.17785178 = weight(_text_:3a in 5895) [ClassicSimilarity], result of:
              0.17785178 = score(doc=5895,freq=2.0), product of:
                0.3797425 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04479146 = queryNorm
                0.46834838 = fieldWeight in 5895, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5895)
          0.33333334 = coord(1/3)
        0.17785178 = weight(_text_:2f in 5895) [ClassicSimilarity], result of:
          0.17785178 = score(doc=5895,freq=2.0), product of:
            0.3797425 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.04479146 = queryNorm
            0.46834838 = fieldWeight in 5895, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5895)
      0.5 = coord(2/4)
    
    Source
    Politische Meinung. 381(2001) Nr.1, S.65-74 [https%3A%2F%2Fwww.dgfe.de%2Ffileadmin%2FOrdnerRedakteure%2FSektionen%2FSek02_AEW%2FKWF%2FPublikationen_Reihe_1989-2003%2FBand_17%2FBd_17_1994_355-406_A.pdf&usg=AOvVaw2KcbRsHy5UQ9QRIUyuOLNi]
  3. Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001) 0.06
    0.06323811 = product of:
      0.12647621 = sum of:
        0.102201715 = weight(_text_:engines in 5937) [ClassicSimilarity], result of:
          0.102201715 = score(doc=5937,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.44908544 = fieldWeight in 5937, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0625 = fieldNorm(doc=5937)
        0.024274498 = product of:
          0.048548996 = sum of:
            0.048548996 = weight(_text_:22 in 5937) [ClassicSimilarity], result of:
              0.048548996 = score(doc=5937,freq=2.0), product of:
                0.15685207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04479146 = queryNorm
                0.30952093 = fieldWeight in 5937, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5937)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    14. 6.2001 12:22:31
  4. Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004) 0.03
    0.02766667 = product of:
      0.05533334 = sum of:
        0.044713248 = weight(_text_:engines in 4826) [ClassicSimilarity], result of:
          0.044713248 = score(doc=4826,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.19647488 = fieldWeight in 4826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4826)
        0.010620093 = product of:
          0.021240186 = sum of:
            0.021240186 = weight(_text_:22 in 4826) [ClassicSimilarity], result of:
              0.021240186 = score(doc=4826,freq=2.0), product of:
                0.15685207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04479146 = queryNorm
                0.1354154 = fieldWeight in 4826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4826)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
    Date
    3. 5.1997 8:44:22
  5. OCLC und Google vereinbaren Datenaustausch (2008) 0.03
    0.027334107 = product of:
      0.10933643 = sum of:
        0.10933643 = sum of:
          0.08506193 = weight(_text_:programming in 2326) [ClassicSimilarity], result of:
            0.08506193 = score(doc=2326,freq=2.0), product of:
              0.29361802 = queryWeight, product of:
                6.5552235 = idf(docFreq=170, maxDocs=44218)
                0.04479146 = queryNorm
              0.28970268 = fieldWeight in 2326, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.5552235 = idf(docFreq=170, maxDocs=44218)
                0.03125 = fieldNorm(doc=2326)
          0.024274498 = weight(_text_:22 in 2326) [ClassicSimilarity], result of:
            0.024274498 = score(doc=2326,freq=2.0), product of:
              0.15685207 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04479146 = queryNorm
              0.15476047 = fieldWeight in 2326, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2326)
      0.25 = coord(1/4)
    
    Content
    "Die Vereinbarung legt fest, dass alle OCLC Mitgliedsbibliotheken, die am Google Book Search(TM) Programm teilnehmen - welches die Volltextsuche von mehr als einer Million Bücher ermöglicht - nun ihre aus WorldCat stammenden MARC-Katalogdaten in Google einbringen können und somit das Finden ihrer Bestände über Google maßgeblich erleichtert wird. Google wird von Google Book Search auf WorldCat.org verweisen, was die Anfrage an Bibliotheks-OPACs und andere Bibliotheksdienste verstärken wird. Google und OCLC werden Daten und Verweise auf digitalisierte Bücher gemeinsam nutzen. Das ermöglicht es OCLC, digitalisierte Bestände seiner Mitgliederbibliotheken in WorldCat zu präsentieren. "Diese Vereinbarung ist im Sinne der teilnehmenden OCLC Bibliotheken. Der erweiterte Zugriff auf die Bibliotheksbestände und -dienste wird durch die höhere Verfügbarkeit im Web gefördert", sagt Jay Jordan, OCLC Präsident und CEO. "Wir freuen uns über die Partnerschaft mit Google. Es nutzt unserem Ziel, Menschen durch internationale Bibliothekskooperation den Zugang zu weltweitem Wissen zu erleichtern." WorldCat Metadaten werden Google direkt von OCLC oder über die Mitgliederbibliotheken, die am beteiligten Google Book Search Programm teilnehmen, bereitgestellt. Google hat kürzlich eine API (Application Programming Interface) freigegeben, die Verweise in Google Book Search auf Basis von ISBNs (Internationale Standardbuchnummer), LCCNs (Library of Congress Control Number) und OCLC Nummern zulässt. Wenn ein Nutzer ein Buch in Google Book Search findet, kann die Verknüpfung in WorldCat.org bis zur lokalen Bibliothek zurückverfolgt werden.
    Date
    26.10.2008 11:22:04
  6. Hahn, U.; Schulze, M.: Katalogerweiterungen, Mashups und Elemente der Bibliothek 2.0" in der Praxis : der Katalog der Universitätsbibliothek der Helmut-Schmidt-Universität (IHSU) Universität der Bundeswehr Hamburg (2009) 0.03
    0.027334107 = product of:
      0.10933643 = sum of:
        0.10933643 = sum of:
          0.08506193 = weight(_text_:programming in 2672) [ClassicSimilarity], result of:
            0.08506193 = score(doc=2672,freq=2.0), product of:
              0.29361802 = queryWeight, product of:
                6.5552235 = idf(docFreq=170, maxDocs=44218)
                0.04479146 = queryNorm
              0.28970268 = fieldWeight in 2672, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.5552235 = idf(docFreq=170, maxDocs=44218)
                0.03125 = fieldNorm(doc=2672)
          0.024274498 = weight(_text_:22 in 2672) [ClassicSimilarity], result of:
            0.024274498 = score(doc=2672,freq=2.0), product of:
              0.15685207 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04479146 = queryNorm
              0.15476047 = fieldWeight in 2672, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=2672)
      0.25 = coord(1/4)
    
    Abstract
    Die verschiedenen unter dem Schlagwort "Bibliothek 2.0" zusammengefassten neuen Dienste und Komponenten wie etwa Wikis, Tagging-Systeme und Blogs sind seit einiger Zeit in aller Munde und dringen über Fortbildungsveranstaltungen, Konferenzen und Publikationsorgane immer mehr in das deutschsprachige Bibliothekswesen ein. Darüber hinaus gibt es öffentlich geförderte Projekte zu bibliothekarischen 2.0-Themen und sogar ein Projekt, welches sich explizit einen 2.0-Katalog zum Ziel gesetzt hat. In diesem Beitrag soll es nun nicht um die Vorstellung eines weiteren Projekts im Dienste des Themas "Bibliothek 2.0" gehen, ebenso hat dieser Beitrag nicht den Anspruch, die Diskussion über die möglichen Vor- oder Nachteile dieser Thematik auf theoretischer Ebene voranzubringen. Vielmehr wird hier ganz praktisch aus Sicht einer kleinen Universitätsbibliothek, der Bibliothek der Helmut-SchmidtUniversität (HSU) - Universität der Bundeswehr Hamburg, aufgezeigt, wie das Thema "Web/Bibliothek 2.0" durchaus neben und in Unterstützung von weiteren nutzerorientierten Servicedienstleistungen auch in kleinen Schritten positive Auswirkungen für die Nutzerinnen und Nutzer haben kann. Der Focus wird dabei auf dem zentralen Arbeits- und Rechercheinstrument der Bibliotheksnutzer liegen, dem Bibliothekskatalog. Speziell wird es darum gehen, wie auf relativ einfache Art und Weise durch Anwendung verschiedener Elemente anderer Dienste und Anbieter sowie das Aufgreifen von Schnittstellen und wenig aufwendigen Verbesserungen, Mehrwert für die Nutzerinnen und Nutzer zu erzielen ist. Ein zentraler Begriff bei fast allen Überlegungen, die im Zusammenhang mit der Verbesserung und Anreicherung des Kataloges stehen, war und ist das Thema "Mash-up". Unter Mashups - ein Begriff, der gerade im Zusammenhang mit dem Thema "Web 2.0" im deutschsprachigen Raum eingeführt und adaptiert wurde - wird das Verfahren bezeichnet, Web-Inhalte neu zu kombinieren. Dabei nutzt man bei und für Mashups offene "APIs" (Application Programming Interfaces, also offene Programmierschnittstellen), die von anderen Web-Anwendungen zur Verfügung gestellt werden.
    Date
    22. 2.2009 19:40:38
  7. Sperber, W.; Dalitz, W.: Portale, Search Engines and Math-Net (2000) 0.03
    0.027100323 = product of:
      0.10840129 = sum of:
        0.10840129 = weight(_text_:engines in 5237) [ClassicSimilarity], result of:
          0.10840129 = score(doc=5237,freq=4.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.47632706 = fieldWeight in 5237, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.046875 = fieldNorm(doc=5237)
      0.25 = coord(1/4)
    
    Abstract
    In Math-Net stellen Personen und Institutionen ihre für die Mathematik relevanten Informationen auf eigenen Web-Servern bereit, doch sollen die Informationen in einheitlicher Weise erschlossen werden. Dazu gibt es sowohl für Server als auch für die Dokumente Empfehlungen für deren Strukturierung. Die lokalen Informationen werden durch automatische Verfahren gesammelt, ausgewertet und indexiert. Diese Indexe sind die Basis für die Math-Net Dienste. Das sind Search Engines und Portale, die einen qualifizierten und effizienten Zugang zu den Informationen im Math-Net bieten. Die Dienste decken im Gegensatz zu den universellen Suchmaschinen nur den für die Mathematik relevanten Teil des Web ab. Math-Net ist auch ein Informations- und Kornmunikationssystem sowie ein Publikationsmedium für die Mathematik. Die Entwicklung des Math-Net wird von dem breiten Konsens der Mathematiker getragen, den Zugang zu der für die Mathematik relevanten Information zu erleichtern und zu verbessern
  8. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.03
    0.027100323 = product of:
      0.10840129 = sum of:
        0.10840129 = weight(_text_:engines in 5771) [ClassicSimilarity], result of:
          0.10840129 = score(doc=5771,freq=4.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.47632706 = fieldWeight in 5771, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.046875 = fieldNorm(doc=5771)
      0.25 = coord(1/4)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  9. Martin-Jung, H.: Suchmaschinen und Qualitätsjournalismus (2007) 0.03
    0.025550429 = product of:
      0.102201715 = sum of:
        0.102201715 = weight(_text_:engines in 372) [ClassicSimilarity], result of:
          0.102201715 = score(doc=372,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.44908544 = fieldWeight in 372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0625 = fieldNorm(doc=372)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  10. Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009) 0.03
    0.025550429 = product of:
      0.102201715 = sum of:
        0.102201715 = weight(_text_:engines in 1160) [ClassicSimilarity], result of:
          0.102201715 = score(doc=1160,freq=8.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.44908544 = fieldWeight in 1160, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.03125 = fieldNorm(doc=1160)
      0.25 = coord(1/4)
    
    LCSH
    Search engines / History
    Web search engines / Social aspects
    Subject
    Search engines / History
    Web search engines / Social aspects
  11. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.02
    0.02371429 = product of:
      0.04742858 = sum of:
        0.03832564 = weight(_text_:engines in 2430) [ClassicSimilarity], result of:
          0.03832564 = score(doc=2430,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.16840704 = fieldWeight in 2430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.009102937 = product of:
          0.018205874 = sum of:
            0.018205874 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
              0.018205874 = score(doc=2430,freq=2.0), product of:
                0.15685207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04479146 = queryNorm
                0.116070345 = fieldWeight in 2430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2430)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    Date
    22. 7.2004 9:40:10
  12. Krause, J.: Heterogenität und Integration : Zur Weiterentwicklung von Inhaltserschließung und Retrieval in sich veränderten Kontexten (2001) 0.02
    0.022583602 = product of:
      0.09033441 = sum of:
        0.09033441 = weight(_text_:engines in 6071) [ClassicSimilarity], result of:
          0.09033441 = score(doc=6071,freq=4.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.39693922 = fieldWeight in 6071, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
      0.25 = coord(1/4)
    
    Abstract
    As an important support tool in science research, specialized information systems are rapidly changing their character. The potential for improvement compared with today's usual systems is enormous. This fact will be demonstrated by means of two problem complexes: - WWW search engines, which were developed without any government grants, are increasingly dominating the scene. Does the WWW displace information centers with their high quality databases? What are the results we can get nowadays using general WWW search engines? - In addition to the WWW and specialized databases, scientists now use WWW library catalogues of digital libraries, which combine the catalogues from an entire region or a country. At the same time, however, they are faced with highly decentralized heterogeneous databases which contain the widest range of textual sources and data, e.g. from surveys. One consequence is the presence of serious inconsistencies in quality, relevance and content analysis. Thus, the main problem to be solved is as follows: users must be supplied with heterogeneous data from different sources, modalities and content development processes via a visual user interface without inconsistencies in content development, for example, seriously impairing the quality of the search results, e. g. when phrasing their search inquiry in the terminology to which they are accustomed
  13. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.02
    0.022583602 = product of:
      0.09033441 = sum of:
        0.09033441 = weight(_text_:engines in 386) [ClassicSimilarity], result of:
          0.09033441 = score(doc=386,freq=4.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.39693922 = fieldWeight in 386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  14. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches (2000) 0.02
    0.022356624 = product of:
      0.089426495 = sum of:
        0.089426495 = weight(_text_:engines in 5772) [ClassicSimilarity], result of:
          0.089426495 = score(doc=5772,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.39294976 = fieldWeight in 5772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5772)
      0.25 = coord(1/4)
    
    Abstract
    Web Search Engines und Web Directories sind die technologische Speerspitze im High-Tech-Bereich Internet. Als Suchassistenten gestatten sie Laien und Profi-Searchern gleichsam einen optimalen Einstieg in die Vielfalt der Informationsquellen des World Wide Web, Sie ermöglichen durch eine Kombination aus hierarchisch geordnetem kontrollierten Vokabular, automatischer Indexierung sowie diverser Synonym-, Homonym- und Fachwörterbücher einen zielgenauen Zugriff auf WebSites. - Stop! Glauben Sie das? Wir waren skeptisch und haben Suchmaschinen und Suchverzeichnisse genau angeschaut. Durchgeführt wurde ein Retrievaltest, der unterschiedliche Suchsysteme mit jeweils dergleichen Anfrage konfrontierte, auf die wir bereits die Antwort wussten ("Known Item Search"). Skizziert werden zudem bisher ausgearbeitete empirische Erhebungen zur Evaluation von Web-Retrievalsystemen, angefangen von seriösen informationswissenschaftlichen Forschungen bis hinzu den Tests in Publikumszeitschriften
  15. Schneider, N.: ¬Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers (2007) 0.02
    0.022356624 = product of:
      0.089426495 = sum of:
        0.089426495 = weight(_text_:engines in 371) [ClassicSimilarity], result of:
          0.089426495 = score(doc=371,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.39294976 = fieldWeight in 371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0546875 = fieldNorm(doc=371)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  16. Krempl, S.: Google muss zerschlagen werden (2007) 0.02
    0.022356624 = product of:
      0.089426495 = sum of:
        0.089426495 = weight(_text_:engines in 753) [ClassicSimilarity], result of:
          0.089426495 = score(doc=753,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.39294976 = fieldWeight in 753, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.0546875 = fieldNorm(doc=753)
      0.25 = coord(1/4)
    
    Content
    Vgl. die Studie "Maurer, H. et al: Report on dangers and opportunities posed by large search engines, particularly Google" unter: http://www.iicm.tugraz.at/iicm_papers/dangers_google.pdf.
  17. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.02
    0.019761909 = product of:
      0.039523818 = sum of:
        0.031938035 = weight(_text_:engines in 2331) [ClassicSimilarity], result of:
          0.031938035 = score(doc=2331,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.1403392 = fieldWeight in 2331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2331)
        0.007585781 = product of:
          0.015171562 = sum of:
            0.015171562 = weight(_text_:22 in 2331) [ClassicSimilarity], result of:
              0.015171562 = score(doc=2331,freq=2.0), product of:
                0.15685207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04479146 = queryNorm
                0.09672529 = fieldWeight in 2331, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=2331)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Footnote
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  18. Machill, M.; Beiler, M.; Zenker, M.: Suchmaschinenforschung : Überblick und Systematisierung eines interdisziplinären Forschungsfeldes (2007) 0.02
    0.01916282 = product of:
      0.07665128 = sum of:
        0.07665128 = weight(_text_:engines in 370) [ClassicSimilarity], result of:
          0.07665128 = score(doc=370,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.33681408 = fieldWeight in 370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.046875 = fieldNorm(doc=370)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  19. Schulz, W.; Held, T.: ¬Der Index auf dem Index? : Selbstzensur und Zensur bei Suchmaschinen (2007) 0.02
    0.01916282 = product of:
      0.07665128 = sum of:
        0.07665128 = weight(_text_:engines in 374) [ClassicSimilarity], result of:
          0.07665128 = score(doc=374,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.33681408 = fieldWeight in 374, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.046875 = fieldNorm(doc=374)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler
  20. Lewandowski, D.: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? (2007) 0.02
    0.01916282 = product of:
      0.07665128 = sum of:
        0.07665128 = weight(_text_:engines in 378) [ClassicSimilarity], result of:
          0.07665128 = score(doc=378,freq=2.0), product of:
            0.22757743 = queryWeight, product of:
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.04479146 = queryNorm
            0.33681408 = fieldWeight in 378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080822 = idf(docFreq=746, maxDocs=44218)
              0.046875 = fieldNorm(doc=378)
      0.25 = coord(1/4)
    
    Source
    Macht der Suchmaschinen: The Power of Search Engines. Hrsg.: Machill, M. u. M. Beiler

Languages

Types

  • a 554
  • m 81
  • s 20
  • el 17
  • x 11
  • i 7
  • b 2
  • n 1
  • More… Less…

Themes

Subjects

Classifications