Search (470 results, page 1 of 24)

  • × type_ss:"a"
  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.19
    0.19360389 = product of:
      0.6582532 = sum of:
        0.036629524 = product of:
          0.10988857 = sum of:
            0.10988857 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.10988857 = score(doc=2514,freq=2.0), product of:
                0.19552499 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.023062602 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.15540591 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15540591 = score(doc=2514,freq=4.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15540591 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15540591 = score(doc=2514,freq=4.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15540591 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15540591 = score(doc=2514,freq=4.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.15540591 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.15540591 = score(doc=2514,freq=4.0), product of:
            0.19552499 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.023062602 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.29411766 = coord(5/17)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Lewandowski, D.: Nachweis deutschsprachiger bibliotheks- und informationswissenschaftlicher Aufsätze in Google Scholar (2007) 0.03
    0.0337122 = product of:
      0.14327686 = sum of:
        0.023181617 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.023181617 = score(doc=284,freq=14.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.4535172 = fieldWeight in 284, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.017721383 = product of:
          0.035442766 = sum of:
            0.035442766 = weight(_text_:bibliothekswesen in 284) [ClassicSimilarity], result of:
              0.035442766 = score(doc=284,freq=2.0), product of:
                0.10280552 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023062602 = queryNorm
                0.34475547 = fieldWeight in 284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=284)
          0.5 = coord(1/2)
        0.051186927 = weight(_text_:informationswissenschaft in 284) [ClassicSimilarity], result of:
          0.051186927 = score(doc=284,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.4927021 = fieldWeight in 284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
        0.051186927 = weight(_text_:informationswissenschaft in 284) [ClassicSimilarity], result of:
          0.051186927 = score(doc=284,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.4927021 = fieldWeight in 284, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=284)
      0.23529412 = coord(4/17)
    
    Abstract
    In dieser Untersuchung werden die Aufsätze der Jahre 2004 bis 2006 aus den acht wichtigsten deutschsprachigen Zeitschriften des Bibliotheks- und Informationswesens auf ihre Verfügbarkeit in Google Scholar hin untersucht. Dabei zeigt sich, dass Google Scholar keinen vollständigen Nachweis der Artikel bieten kann und sich daher nicht als Ersatz für bibliographische Datenbanken eignet. Google Scholar macht einen Teil der Volltexte direkt verfügbar und eignet sich insofern für einen schnellen und problemlosen Zugang zum Volltext, der traditionelle Wege wie die Bibliothek bzw. die Fernleihe umgeht. Für das Fach Bibliotheks- und Informationswissenschaft bietet Google Scholar insgesamt die Chance, seine Inhalte auch über die Fachgrenzen hinaus bekannt zu machen.
    Field
    Bibliothekswesen
    Informationswissenschaft
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.165-168
  3. Griesbaum, J.: Online Marketing : Ein Lehr- und Forschungsgebiet der Informationswissenschaft? (2019) 0.03
    0.025218625 = product of:
      0.14290553 = sum of:
        0.017523656 = weight(_text_:und in 5418) [ClassicSimilarity], result of:
          0.017523656 = score(doc=5418,freq=8.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34282678 = fieldWeight in 5418, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
        0.062690936 = weight(_text_:informationswissenschaft in 5418) [ClassicSimilarity], result of:
          0.062690936 = score(doc=5418,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.60343444 = fieldWeight in 5418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
        0.062690936 = weight(_text_:informationswissenschaft in 5418) [ClassicSimilarity], result of:
          0.062690936 = score(doc=5418,freq=6.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.60343444 = fieldWeight in 5418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5418)
      0.1764706 = coord(3/17)
    
    Abstract
    Die Darstellung der zentralen Kanäle des Online-Marketing wird fortgesetzt. Bei der Suchwortvermarktung werden Anzeigen auf Suchergebnisseiten geschaltet. Wichtige Größen sind hier die Inhalte, die der Werbetreibende über die gebuchten Suchanfragen definiert, die Gebotshöhe für Klicks auf die Werbeanzeige, die Klickrate und die Qualität der Zielseiten.
    Content
    Lesen Sie in der nächsten Folge: Online Marketing und Lehre - Online Marketing und Forschung.
    Series
    Zukunft der Informationswissenschaft: An den Forschungsfronten der Informationswissenschaft
  4. Wolff, C.: Effektivität von Recherchen im WWW : Vergleichende Evaluierung von such- und Metasuchmaschinen (2000) 0.02
    0.022439303 = product of:
      0.12715605 = sum of:
        0.024782192 = weight(_text_:und in 5463) [ClassicSimilarity], result of:
          0.024782192 = score(doc=5463,freq=16.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.4848303 = fieldWeight in 5463, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.051186927 = weight(_text_:informationswissenschaft in 5463) [ClassicSimilarity], result of:
          0.051186927 = score(doc=5463,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.4927021 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
        0.051186927 = weight(_text_:informationswissenschaft in 5463) [ClassicSimilarity], result of:
          0.051186927 = score(doc=5463,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.4927021 = fieldWeight in 5463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5463)
      0.1764706 = coord(3/17)
    
    Abstract
    Der vorliegende Beitrag befasst sich mit der Informationssuche im World Wide Web und ihrer Evaluierung. Ausgehend von einer Zusammenschau der wesentlichen Merkmale des World Wide Web als heterogener Dokumentkollektion (Kap. 1) werden Aufbau und Merkmale von Suchmaschinen und Metasuchmaschinen eingeführt sowie die Problematik der Evaluierung von Suchmaschinen und eine Übersicht bisheriger Ergebnisse diskutiert (Kap. 2). In Kap. 3 werden Aufbau, Durchführung und Ergebnisse einer Vergleichstudie vorgestellt, bei der mit Hilfe eines paper-and-pencil-Experiments ausgewählte Such- und Metasuchmaschinen evaluiert wurden. Schließlich zieht Kap. 4 Schlussfolgerungen aus dieser Studie und gibt einen Ausblick auf Optimierungsmöglichkeiten für Suchmaschinen
    Series
    Schriften zur Informationswissenschaft; Bd.38
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  5. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.02
    0.022075254 = product of:
      0.1250931 = sum of:
        0.021679902 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.021679902 = score(doc=1159,freq=6.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.051706605 = weight(_text_:informationswissenschaft in 1159) [ClassicSimilarity], result of:
          0.051706605 = score(doc=1159,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
        0.051706605 = weight(_text_:informationswissenschaft in 1159) [ClassicSimilarity], result of:
          0.051706605 = score(doc=1159,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.1764706 = coord(3/17)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  6. Lewandowski, D.: Suchmaschinen (2013) 0.02
    0.021373196 = product of:
      0.121114776 = sum of:
        0.017701564 = weight(_text_:und in 731) [ClassicSimilarity], result of:
          0.017701564 = score(doc=731,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34630734 = fieldWeight in 731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=731)
        0.051706605 = weight(_text_:informationswissenschaft in 731) [ClassicSimilarity], result of:
          0.051706605 = score(doc=731,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=731)
        0.051706605 = weight(_text_:informationswissenschaft in 731) [ClassicSimilarity], result of:
          0.051706605 = score(doc=731,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.49770427 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.078125 = fieldNorm(doc=731)
      0.1764706 = coord(3/17)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  7. Klaus, H.: ¬Das Internet als Recherchemethode im Medizin-Journalismus : Meinung und Akzeptanz der Wissenschaftsjournalisten (2000) 0.02
    0.018743709 = product of:
      0.106214345 = sum of:
        0.02348378 = weight(_text_:und in 5523) [ClassicSimilarity], result of:
          0.02348378 = score(doc=5523,freq=44.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.4594286 = fieldWeight in 5523, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.041365284 = weight(_text_:informationswissenschaft in 5523) [ClassicSimilarity], result of:
          0.041365284 = score(doc=5523,freq=8.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.3981634 = fieldWeight in 5523, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
        0.041365284 = weight(_text_:informationswissenschaft in 5523) [ClassicSimilarity], result of:
          0.041365284 = score(doc=5523,freq=8.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.3981634 = fieldWeight in 5523, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=5523)
      0.1764706 = coord(3/17)
    
    Abstract
    "Medizin läuft immer", so der Titel eines Aufsatzes von Jochen Aumiller und dies in zweierlei Hinsicht. Zum einen erfreuen sich Beiträge zu den Themenbereichen Gesundheit und Medizin großer Beachtung bei den Rezipienten. Dies ist dadurch zu erklären, dass jeder Einzelne faktisch jederzeit betroffen sein kann. Zum Anderen gehen Themen in der Medizin nie aus. Egal wohin man schaut, ob in Tageszeitungen, Zeitschriften, Hörfunk oder Fernsehen, überall spielt die Medizin bei der Berichterstattung eine Rolle und ist in vielen Facetten präsent: egal ob Berichte über die Gesundheitsreform, ein Interview mit der Gesundheitsministerin, Aufdeckung von Dopingskandalen, die Erforschung und Entdeckung neuer Therapieformen, Krankheiten oder Krankheitserreger, alternative Behandlungsformen, Aufklärung über die Wirkung und Nebenwirkungen von Medikamenten, Tipps für die Gesundheit, Kranken- und Pflegeversicherung oder gar Krankheiten, von denen prominente Persönlichkeiten betroffen sind. Die Beispiele zeigen, dass die Thematisierung von Medizin und Gesundheit in den Medien in verschiedenen Formen und mit unterschiedlichen Intentionen stattfindet. Medizinische Themen belegen eine Spitzenposition auf der Beliebtheitsskala der Leser, daher finden sich Beiträge und Artikel der Journalisten zu Themen aus der Medizin und dem Gesundheitswesen nicht nur in Tages- und Wochenzeitungen, Nachrichtenmagazinen und Zeitschriften aller Art, sondern auch in den audiovisuellen Medien und nicht zuletzt im Internet wieder. Der Leser oder der Zuschauer kann aus einer großen Palette an Endprodukten der Wissenschaftsjournalisten wählen. Ein paar Beispiele: Pollen, Milben und Co. Allergisch? Das hilft! (Frauenzeitschrift Brigitte) - Abhilfe bei niedrigem Blutdruck (Fit for Fun) - Die schlaflose Gesellschaft, unser riskantes Leben gegen die Uhr (GEO) - Gesundheit! Thema: Heilende Viren (ZDF) - Die Sprechstunde: Neues aus der Krebsforschung (Bayerisches Fernsehen) - ARD Buffet: Der Teledoktor (ARD) Galileo (Pro 7)
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  8. Schulz, U.: Search engine usability : über die Nutzungsqualität von Suchmaschinen (2001) 0.02
    0.016886355 = product of:
      0.09568934 = sum of:
        0.022565158 = weight(_text_:und in 5776) [ClassicSimilarity], result of:
          0.022565158 = score(doc=5776,freq=26.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.441457 = fieldWeight in 5776, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
        0.036562093 = weight(_text_:informationswissenschaft in 5776) [ClassicSimilarity], result of:
          0.036562093 = score(doc=5776,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.35193008 = fieldWeight in 5776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
        0.036562093 = weight(_text_:informationswissenschaft in 5776) [ClassicSimilarity], result of:
          0.036562093 = score(doc=5776,freq=4.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.35193008 = fieldWeight in 5776, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
      0.1764706 = coord(3/17)
    
    Abstract
    Web Usability konnte sich als Forschungsbereich zunächst nur in größeren Firmen der Internet-Branche wie z. B. Icon Medialab etablieren. Mit zunehmender Konkurrenz und ersten Pleiten im E-Commerce entsteht die Einsicht oder bittere Erfahrung, dass bunte, multimediale Internetpräsenz nicht alles ist: Die Nutzungsqualität von Websites tritt in den Vordergrund und damit ein neuer Arbeitsmarkt für Informationsarchitekten und HCI- bzw. Usability-Spezialisten. Suchmaschinen sind eine besondere Kategorie von Website. Sie entstehen in einem Spannungsfeld zweier unterschiedlicher Interessen: Mit kommerziellen Websites teilen sie den Wettbewerb um Kunden und die Art der Kunden: den ungeduldigen gelegentlichen Anwender. Mit der akademischen Welt teilen sie das forschende Bemühen um die Optimierung von Features und Funktionen und die déformation professionelle der Eingeweihten. Am Beispiel zweier Untersuchungen wird deutlich, wie es der richtige 'Methodenmix' ermöglicht, bei der Evaluation der Nutzungsqualität von Suchmaschinen ganz unterschiedlicher Art (a) diesen Interessenkonflikt bewusst zu machen, (b) Empathie für die Nöte der Kunden zu entwickeln und c) allgemeingültige Kriterien zur Entwicklung gebrauchstauglicher Suchmaschinen aufzustellen. Beide Untersuchungen fanden im Rahmen des Projekts Jorschung und Forschungsumgebung für Web Usability« unter Mitwirkung von Studierenden am Fachbereich Bibliothek und Information der FH Hamburg statt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.014925591 = product of:
      0.08457834 = sum of:
        0.022530414 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.022530414 = score(doc=5025,freq=18.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.031023962 = weight(_text_:informationswissenschaft in 5025) [ClassicSimilarity], result of:
          0.031023962 = score(doc=5025,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
        0.031023962 = weight(_text_:informationswissenschaft in 5025) [ClassicSimilarity], result of:
          0.031023962 = score(doc=5025,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 5025, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.1764706 = coord(3/17)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  10. Dresler, S.; Grosse, A.G.; Rösner, A.: Realisierung und Optimierung der Informationsbeschaffung von Internet-Suchmaschinen am Beispiel von www.crawler.de (1997) 0.01
    0.013913137 = product of:
      0.078841105 = sum of:
        0.01679318 = weight(_text_:und in 716) [ClassicSimilarity], result of:
          0.01679318 = score(doc=716,freq=10.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.328536 = fieldWeight in 716, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
        0.031023962 = weight(_text_:informationswissenschaft in 716) [ClassicSimilarity], result of:
          0.031023962 = score(doc=716,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
        0.031023962 = weight(_text_:informationswissenschaft in 716) [ClassicSimilarity], result of:
          0.031023962 = score(doc=716,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=716)
      0.1764706 = coord(3/17)
    
    Abstract
    Die Datenmenge im WWW, welche in Form von Internet-Seiten über URLs zugänglich ist, wächst derzeit stark an. Um aus dieser Menge effizient eine Liste von URLs zu einem Thema oder Stichwort zu extrahieren, sind leistungsfähige Internet-Suchmaschinen mit einem möglichst umfassenden und aktuellen Datenbestand notwendig. Diese sind jedoch sowohl in ihren Eigenschaften wie Verarbeitungskapazität und Netzanbindung beschränkt als auch durch administrative Hindernisse wie das Robots Exclusion Agreement. Es ist daher notwendig, neuartige Algorithmen zur Sammlung von Internet-Seiten zu verwenden, welche empirisch gewonnenes Wissen über die Seitenstruktur berücksichtigen. Dieser Bericht präsentiert den aktuellen Stand der Optimierung des Datenbeschaffungsteils der bekannten deutschen Suchmaschine www.crawler.de durch die Integration von Mechanismen, welche die Aktualisierungsrate und die Verzeichnistiefe von Internet-Links berücksichtigen
    Series
    Schriften zur Informationswissenschaft; Bd.30
    Source
    Hypertext - Information Retrieval - Multimedia '97: Theorien, Modelle und Implementierungen integrierter elektronischer Informationssysteme. Proceedings HIM '97. Hrsg.: N. Fuhr u.a
  11. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.01
    0.013106783 = product of:
      0.07427177 = sum of:
        0.022565158 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.022565158 = score(doc=3068,freq=26.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.025853302 = weight(_text_:informationswissenschaft in 3068) [ClassicSimilarity], result of:
          0.025853302 = score(doc=3068,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.24885213 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
        0.025853302 = weight(_text_:informationswissenschaft in 3068) [ClassicSimilarity], result of:
          0.025853302 = score(doc=3068,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.24885213 = fieldWeight in 3068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
      0.1764706 = coord(3/17)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  12. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.012823918 = product of:
      0.072668865 = sum of:
        0.01062094 = weight(_text_:und in 793) [ClassicSimilarity], result of:
          0.01062094 = score(doc=793,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.20778441 = fieldWeight in 793, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.031023962 = weight(_text_:informationswissenschaft in 793) [ClassicSimilarity], result of:
          0.031023962 = score(doc=793,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
        0.031023962 = weight(_text_:informationswissenschaft in 793) [ClassicSimilarity], result of:
          0.031023962 = score(doc=793,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.29862255 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=793)
      0.1764706 = coord(3/17)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.01
    0.012697283 = product of:
      0.053963453 = sum of:
        0.013770242 = weight(_text_:buch in 1721) [ClassicSimilarity], result of:
          0.013770242 = score(doc=1721,freq=2.0), product of:
            0.10722657 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023062602 = queryNorm
            0.12842192 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.014339906 = weight(_text_:und in 1721) [ClassicSimilarity], result of:
          0.014339906 = score(doc=1721,freq=42.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.280541 = fieldWeight in 1721, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.012926651 = weight(_text_:informationswissenschaft in 1721) [ClassicSimilarity], result of:
          0.012926651 = score(doc=1721,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.12442607 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
        0.012926651 = weight(_text_:informationswissenschaft in 1721) [ClassicSimilarity], result of:
          0.012926651 = score(doc=1721,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.12442607 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1721)
      0.23529412 = coord(4/17)
    
    Abstract
    Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  14. Rusch-Feja, D.: Informationsvermittlung, Informationsretrieval und Informationsqualität im Internet (1996) 0.01
    0.011311899 = product of:
      0.06410076 = sum of:
        0.01679318 = weight(_text_:und in 4873) [ClassicSimilarity], result of:
          0.01679318 = score(doc=4873,freq=10.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.328536 = fieldWeight in 4873, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4873)
        0.015189757 = product of:
          0.030379513 = sum of:
            0.030379513 = weight(_text_:bibliothekswesen in 4873) [ClassicSimilarity], result of:
              0.030379513 = score(doc=4873,freq=2.0), product of:
                0.10280552 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.023062602 = queryNorm
                0.2955047 = fieldWeight in 4873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4873)
          0.5 = coord(1/2)
        0.032117825 = product of:
          0.06423565 = sum of:
            0.06423565 = weight(_text_:informationsvermittlung in 4873) [ClassicSimilarity], result of:
              0.06423565 = score(doc=4873,freq=2.0), product of:
                0.14949065 = queryWeight, product of:
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.023062602 = queryNorm
                0.42969674 = fieldWeight in 4873, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.481951 = idf(docFreq=183, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4873)
          0.5 = coord(1/2)
      0.1764706 = coord(3/17)
    
    Abstract
    Eingangs werden einige Aspekte des Informationsretrievals im Internet hinsichtlich der Suche nach Informationen behandelt, bei denen die Art der Information die Suchmethode bestimmt. Die Suche nach themenorietierten Fachinformationen im Internet wird anschließend in ihrer besonderen Problematik vorgestellt, zusammen mit der Nutzung verschiedener Suchmethoden, Arten von Quellen und Suchhilfen. Außerdem wird die Handhabung von Suchmechanismen und -strukturen im Internet inklusive Suchinstrumenten wie Search engines erläutert. Nach einer kurzen Diskussion der Problematik der Informationsfilterung für den Nutzer bzw. der Erstellung bleibender Suchhilfen, wie Clearinghouses und ähnlichen Meta-Informationsstrukturen, soll anschließend auf die Qualität der Informationsressourcen im Internet eingegangen werden. Die gegenwärtige Diskussion über Qualitätskriterien wird zusammengefaßt. Zum Schluß werden die Mehrwertaspekte, die durch die Ergänzung der herkömmlichen Erfassung der Hauptdaten entstehen, sowie die Aufbereitung der Rechercheergebnisse in bleibenden Informationssammelstellen als neue Anforderungen innerhalb der bibliothekarischen Berufe besprochen
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.4, S.329-360
  15. Bekavac, B.: Metainformationsdienste des Internet (2004) 0.01
    0.008951377 = product of:
      0.05072447 = sum of:
        0.0145298485 = weight(_text_:und in 2936) [ClassicSimilarity], result of:
          0.0145298485 = score(doc=2936,freq=22.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.28425696 = fieldWeight in 2936, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
        0.018097311 = weight(_text_:informationswissenschaft in 2936) [ClassicSimilarity], result of:
          0.018097311 = score(doc=2936,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.1741965 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
        0.018097311 = weight(_text_:informationswissenschaft in 2936) [ClassicSimilarity], result of:
          0.018097311 = score(doc=2936,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.1741965 = fieldWeight in 2936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2936)
      0.1764706 = coord(3/17)
    
    Abstract
    Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
    Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  16. FR: Google für Wissenschaftler (2004) 0.01
    0.0085626505 = product of:
      0.07278253 = sum of:
        0.05508097 = weight(_text_:buch in 1977) [ClassicSimilarity], result of:
          0.05508097 = score(doc=1977,freq=2.0), product of:
            0.10722657 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023062602 = queryNorm
            0.5136877 = fieldWeight in 1977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
        0.017701564 = weight(_text_:und in 1977) [ClassicSimilarity], result of:
          0.017701564 = score(doc=1977,freq=4.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34630734 = fieldWeight in 1977, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1977)
      0.11764706 = coord(2/17)
    
    Content
    "Der Suchmaschinenbetreiber Google testet einen Service für Wissenschaft und Forschung: Unter der Adresse scholar.google.com finden Akademiker Fachliteratur und Quellen. In den Ergebnislisten steht auch, wie oft andere Veröffentlichungen ein Buch oder Aufsatz als Referenz angeben."
  17. Lewandowski, D.: Suchmaschinen - ein Thema für die Informationswissenschaft (2005) 0.01
    0.008511503 = product of:
      0.04823185 = sum of:
        0.017207887 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.017207887 = score(doc=3183,freq=42.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.3366492 = fieldWeight in 3183, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.015511981 = weight(_text_:informationswissenschaft in 3183) [ClassicSimilarity], result of:
          0.015511981 = score(doc=3183,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.14931127 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
        0.015511981 = weight(_text_:informationswissenschaft in 3183) [ClassicSimilarity], result of:
          0.015511981 = score(doc=3183,freq=2.0), product of:
            0.10389022 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023062602 = queryNorm
            0.14931127 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3183)
      0.1764706 = coord(3/17)
    
    Content
    "Web-Suchmaschinen gibt es seit mittlerweile etwa zehn Jahren. Mit ihnen ist die Informationsrecherche, welche lange Zeit eine Sache für (uns) Experten war, bei Otto Normalverbraucher angekommen. Suchmaschinen haben sich an die Bedürfnisse dieser Nutzerschaft angepasst, was von Expertenseite zu vielerlei Klagen über ihre "Primitivität` geführt hat. Als Chance kann hier aber die Erkenntnis gesehen werden, dass die Nutzer einfache Interfaces und ein gutes Ranking der Suchergebnisse benötigen - auch in fachlichen Anwendungen. Der Durchbruch des Information Retrieval und seiner Bedeutung zeigt sich aber nicht nur durch die breite Nutzerschaft. Das Kernstück von erfolgreichen Suchmaschinen-Unternehmen wie Google und Yahoo! bilden Information-Retrieval-Verfahren - von besonderem Interesse sind dabei stets die von den Firmen geheim gehaltenen Ranking-Algorithmen. Die Forschung im IR-Bereich findet inzwischen zahlreiche namhafte Sponsoren - bei der letzten Jahrestagung der Special Interest Group an Information Retrieval (SIGIR) waren unter anderem Microsoft, IBM und Google mit im Boot. Suchmaschinen-Forschung findet in Deutschland in zahlreichen Hochschulen und Unternehmen statt, dabei ist sie allerdings verstreut und wenig koordiniert. Die zahlreichen auf das Call for Papers für dieses Themenheft der IWP eingegangenen Beiträge zeigen erfreulicherweise ein großes Potenzial für die informationswissenschaftliche Forschung in diesem Bereich. Der erste Beitrag befasst sich mit den Eigenheiten des Web und arbeitet die Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval heraus. Damit werden die Grundlagen für die Diskussion über Suchmaschinen gelegt. Der zweite Teil des Beitrags gibt einen Überblick der aktuellen Forschungsliteratur mit informationswissenschaftlichem Schwerpunkt und hat zum Ziel, weitere Forschung anzuregen. Thomas Mandl beschreibt in der Darstellung seines AOUAINT-Projekts die unterschiedlichen Ansätze, (Web-)Dokumente nach ihrer Oualität zu beurteilen. Solche Verfahren werden bereits von den bisher bestehenden Suchmaschinen eingesetzt; man denke etwa an das Kernstück von Google, das so genannte PageRank-Verfahren. Allerdings beschränken sich die bisherigen Verfahren nur auf einzelne Aspekte von Qualität. AOUAINT erweitert die Qualitätsbewertung um weitere Faktoren und kann so das Retrieval verbessern.
    Neben den "harten Faktoren" der Oualität der Suchergebnisse spielt auch die Gestaltung von Suchinterfaces eine wichtige Rolle für die Akzeptanz bzw. Nicht-Akzeptanz von Suchwerkzeugen. Die Untersuchung von Jens Fauldrath und Arne Kunisch vergleicht die Interfaces der wichtigsten in Deutschland vertretenen Suchmaschinen und Portale und gibt Empfehlungen für deren Gestaltung und Funktionsumfang. Neue Wege in der Gestaltung von Ergebnismengen beschreibt der Beitrag von Fridolin Wild. Anhand des Vergleichs von bestehenden Visualisierungslösungen werden best practices für die Ergebnispräsentation herausgearbeitet. Für die Zukunft rechnet Wild mit einem zunehmenden Einsatz solcher Systeme, da er in ihnen die Möglichkeit sieht, nicht nur die Benutzeroberflächen zu verändern, sondern auch das Retrivalverfahren an sich zu verbessern. Die Internationalität des Web hat es mit sich gebracht, dass Suchmaschinen in der Regel für den weltweiten Markt entwickelt werden. Wie sie mit einzelnen Sprachen umgehen, ist bisher weitgehend un geklärt. Eine Untersuchung über den Umgang von Suchmaschinen mit den Eigenheiten der deutschen Sprache legen Esther Guggenheim und Judith Bar-Ilan vor. Sie kommen zu dem Schluss, dass die populären Suchmaschinen zunehmend besser mit deutschsprachigen Anfragen umgehen können, sehen allerdings weitere Verbesserungsmöglichkeiten. Dem noch relativ neuen Forschungsgebiet der Webometrie ist der Beitrag von Philipp Mayr und Fabio Tosques zuzuordnen. Webometrie wendet die aus der Bibliometrie bzw. Informetrie bekannten Verfahren auf den Web-Korpus an. Im vorliegenden Beitrag wird das Application Programming Interface (API) von Google auf seine Tauglichkeit für webometrische Untersuchungen getestet. Die Autoren kommen zu dem Schluss, dass kleinere Einschränkungen und Probleme nicht die zahlreichen Möglichkeiten, die das API bietet, mindern. Ein Beispiel für den Einsatz von Suchmaschinen-Technologie in der Praxis beschreibt schließlich der letzte Beitrag des Hefts. Friedrich Summann und Sebastian Wolf stellen eine Suchmaschine für wissenschaftliche Inhalte vor, die die Oualität von Fachdatenbanken mit der Benutzerfreundlichkeit von Web-Suchmaschinen verbinden soll. Im Aufsatz werden die eingesetzten Technologien und die möglichen Einsatzgebiete beschrieben. Der Gastherausgeber wünscht sich von diesem Themenheft, dass es Anregungen für weitere Forschungs- und Anwendungsprojekte geben möge, sei dies an Hochschulen oder in Unternehmen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.1
  18. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.008386134 = product of:
      0.047521427 = sum of:
        0.027263692 = weight(_text_:buch in 1333) [ClassicSimilarity], result of:
          0.027263692 = score(doc=1333,freq=4.0), product of:
            0.10722657 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023062602 = queryNorm
            0.25426245 = fieldWeight in 1333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.017523656 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.017523656 = score(doc=1333,freq=32.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.002734081 = product of:
          0.010936324 = sum of:
            0.010936324 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.010936324 = score(doc=1333,freq=2.0), product of:
                0.0807613 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023062602 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.25 = coord(1/4)
      0.1764706 = coord(3/17)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
  19. Wild, F.: Visuelle Verfahren im Information Retrieval (2005) 0.01
    0.0078420825 = product of:
      0.0666577 = sum of:
        0.02124188 = weight(_text_:und in 3182) [ClassicSimilarity], result of:
          0.02124188 = score(doc=3182,freq=16.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.41556883 = fieldWeight in 3182, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.04541582 = product of:
          0.09083164 = sum of:
            0.09083164 = weight(_text_:effizienz in 3182) [ClassicSimilarity], result of:
              0.09083164 = score(doc=3182,freq=2.0), product of:
                0.17776431 = queryWeight, product of:
                  7.7079034 = idf(docFreq=53, maxDocs=44218)
                  0.023062602 = queryNorm
                0.51096666 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.7079034 = idf(docFreq=53, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.5 = coord(1/2)
      0.11764706 = coord(2/17)
    
    Abstract
    Bislang wird dem Studium bestehender Verfahren in der Visualisierung des Document Retrieval von Suchmaschinen zu wenig Aufmerksamkeit geschenkt. Der vorliegende Beitrag widmet sich dem Studium von acht Systemen und Prototypen, um die best-practice-Auslese und die Identifikation erfolgsrelevanter Features und Element zu erleichtern. Er legt dazu ein Modell für das visuelle Information Retrieval in Suchmaschinen vor, beschreibt und analysiert die ausgewählten Verfahren und deduziert Herausforderungen für künftige Forschungen. Die wichtigsten Erkenntnisse dabei sind, dass zwar zu wenig integrale Systeme existieren, die den gesamten Retrievalprozess integriert visuell unterstützen, die vorhandenen aber bereits (trotz ihrer Unvollständigkeit) einen Ausweg aus der linearen Krise der Ergebnispräsentation textbasierter Suchmaschinen aufzeigen. Wenngleich noch nicht alle Informationsbedürfnisse von den untersuchten Verfahren erfüllt werden, so zeichnet sich doch ab, dass insbesondere durch die Innovation von Interaktions- und Manipulationsformen neue Wege beschritten werden, die sich auf Effektivität und Effizienz derRetrievalverfahren auswirken.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.29-34
  20. epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017) 0.01
    0.0073839915 = product of:
      0.041842617 = sum of:
        0.012516897 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
          0.012516897 = score(doc=3815,freq=8.0), product of:
            0.05111519 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023062602 = queryNorm
            0.24487628 = fieldWeight in 3815, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3815)
        0.02541989 = product of:
          0.05083978 = sum of:
            0.05083978 = weight(_text_:bewertung in 3815) [ClassicSimilarity], result of:
              0.05083978 = score(doc=3815,freq=2.0), product of:
                0.14568622 = queryWeight, product of:
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.023062602 = queryNorm
                0.34896767 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.31699 = idf(docFreq=216, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.5 = coord(1/2)
        0.0039058302 = product of:
          0.015623321 = sum of:
            0.015623321 = weight(_text_:22 in 3815) [ClassicSimilarity], result of:
              0.015623321 = score(doc=3815,freq=2.0), product of:
                0.0807613 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.023062602 = queryNorm
                0.19345059 = fieldWeight in 3815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3815)
          0.25 = coord(1/4)
      0.1764706 = coord(3/17)
    
    Content
    "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
    Date
    22. 7.2004 9:42:33

Years

Languages

  • d 386
  • e 84
  • f 1
  • nl 1
  • More… Less…