Search (575 results, page 1 of 29)

  • × theme_ss:"Suchmaschinen"
  1. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.03
    0.0318683 = product of:
      0.2549464 = sum of:
        0.026878107 = product of:
          0.08063432 = sum of:
            0.08063432 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
              0.08063432 = score(doc=2514,freq=2.0), product of:
                0.14347284 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016922936 = queryNorm
                0.56201804 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2514)
          0.33333334 = coord(1/3)
        0.114034146 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.114034146 = score(doc=2514,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
        0.114034146 = weight(_text_:2f in 2514) [ClassicSimilarity], result of:
          0.114034146 = score(doc=2514,freq=4.0), product of:
            0.14347284 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016922936 = queryNorm
            0.7948135 = fieldWeight in 2514, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.125 = coord(3/24)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  2. Kwiatkowski, M.; Höhfeld, S.: Thematisches Aufspüren von Web-Dokumenten : eine kritische Betrachtung von Focused Crawling-Strategien (2007) 0.01
    0.010806678 = product of:
      0.08645342 = sum of:
        0.012989101 = weight(_text_:und in 153) [ClassicSimilarity], result of:
          0.012989101 = score(doc=153,freq=16.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.34630734 = fieldWeight in 153, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 153) [ClassicSimilarity], result of:
              0.026770797 = score(doc=153,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 153, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=153)
          0.5 = coord(1/2)
        0.060078923 = weight(_text_:kritische in 153) [ClassicSimilarity], result of:
          0.060078923 = score(doc=153,freq=4.0), product of:
            0.11407853 = queryWeight, product of:
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.016922936 = queryNorm
            0.5266453 = fieldWeight in 153, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.0390625 = fieldNorm(doc=153)
      0.125 = coord(3/24)
    
    Abstract
    Herkömmliche Suchmaschinen dienen der breiten Websuche und zeichnen sich zumeist durch eine hohe Quantität - nicht unbedingt durch Qualität - ihrer Ergebnismengen aus. Zum Suchen von Dokumenten wird ein allgemeiner Crawler eingesetzt, der Webseiten aufspürt, um große Datenspeicher aufzubauen. Focused Crawler gehen dagegen gezielter vor: Nicht enorme Datenmengen sollen durchsucht, gespeichert und indexiert werden, sondern nur bestimmte, thematisch relevante Segmente des World Wide Web. Der Focused Crawler muss einen möglichst optimalen Weg durch das Web finden, um Knowledge Discovery zu betreiben. Dabei bleiben die für eine Thematik irrelevanten Bereiche des Web unberücksichtigt. Die Aufgabe wird dadurch erheblich verkleinert und der Ressourcenaufwand verringert. Ziel ist die Produktion qualifizierter Suchergebnisse zu einem bestimmten Wissensgebiet. Im Allgemeinen können Focused Crawling-Techniken für den Aufbau spezialisierter vertikaler Suchmaschinen eingesetzt werden. Sie sind darüber hinaus im Bereich der Digitalen Bibliotheken von Vorteil. Da diese oft über einen thematischen Schwerpunkt verfügen und der qualifizierten Literatur-Untersuchung dienen, müssen sie einen gewissen Qualitätsanspruch Genüge leisten und dabei lediglich Anfragen zu einem definierten Wissensbereich bedienen. Der Einsatz von Focused Crawling bietet sich also an, um eine hohe Dokument-Qualität in einer spezifischen Domäne zu gewährleisten. Dieser Review-Artikel beleuchtet grundlegende Ansätze des Focused Crawling und verfolgt diese bis in die aktuellen Entwicklungen. Praktische Einsatzgebiete und aktuelle Systeme untermauern die Bedeutsamkeit des Forschungsgebiets. Darüber hinaus wird eine kritische Betrachtung der aufgeführten Ansätze geleistet.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.2, S.69-82
  3. Carnevali, M.: Lost in Cyberspace? : Informationssuche mit Search Engines im World Wide Web (1996) 0.01
    0.0092222905 = product of:
      0.11066748 = sum of:
        0.006429277 = weight(_text_:und in 5033) [ClassicSimilarity], result of:
          0.006429277 = score(doc=5033,freq=2.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.17141339 = fieldWeight in 5033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5033)
        0.104238205 = weight(_text_:chaotische in 5033) [ClassicSimilarity], result of:
          0.104238205 = score(doc=5033,freq=2.0), product of:
            0.15102533 = queryWeight, product of:
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.016922936 = queryNorm
            0.6902035 = fieldWeight in 5033, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5033)
      0.083333336 = coord(2/24)
    
    Abstract
    Das WWW hat sich in den vergangenen Monaten zum größten und wohl auch populärsten Online-Medium entwickelt. Eine riesige Informationsmenge scheint nur auf den Abruf zu warten. Diese Informationsflut führt im chaotische organisierten Internet zwangsläufig auch zu einem schwerwiegenden Problem: wie lassen sich relevante Dokumente im Dickicht von Millionen Web-Seiten auffinden? Abhilfe versprechen hier die 'Search engines' genannten Suchwerkzeuge, deren effektive Nutzung in diesem Beitrag geschildert wird
  4. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.01
    0.0072730705 = product of:
      0.058184564 = sum of:
        0.050726194 = weight(_text_:statistische in 4333) [ClassicSimilarity], result of:
          0.050726194 = score(doc=4333,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.004592341 = weight(_text_:und in 4333) [ClassicSimilarity], result of:
          0.004592341 = score(doc=4333,freq=2.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.12243814 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.011464121 = score(doc=4333,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S
  5. Beuth, P.: Wolframen statt googeln (2009) 0.01
    0.007211453 = product of:
      0.057691623 = sum of:
        0.030337842 = weight(_text_:physik in 31) [ClassicSimilarity], result of:
          0.030337842 = score(doc=31,freq=2.0), product of:
            0.107782364 = queryWeight, product of:
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.016922936 = queryNorm
            0.28147316 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.369011 = idf(docFreq=205, maxDocs=44218)
              0.03125 = fieldNorm(doc=31)
        0.015168921 = product of:
          0.030337842 = sum of:
            0.030337842 = weight(_text_:physik in 31) [ClassicSimilarity], result of:
              0.030337842 = score(doc=31,freq=2.0), product of:
                0.107782364 = queryWeight, product of:
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.016922936 = queryNorm
                0.28147316 = fieldWeight in 31, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.369011 = idf(docFreq=205, maxDocs=44218)
                  0.03125 = fieldNorm(doc=31)
          0.5 = coord(1/2)
        0.012184857 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.012184857 = score(doc=31,freq=22.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3248651 = fieldWeight in 31, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=31)
      0.125 = coord(3/24)
    
    Content
    "Wer Google herausfordert, muss wahnsinnig sein. Oder ein Genie. Stephen Wolfram wird meistens in die zweite Kategorie eingeordnet. Der 49-jährige Physiker und Mathematiker hat bereits zweimal für Furore gesorgt. 1988 stellte er "Mathematica" vor, eine Software, die von Wissenschaftlern und Finanzanalysten für komplizierte Berechnungen aller Art genutzt wird. 2002 veröffentlichte er sein vieldiskutiertes Buch "A New Kind of Science". Wolfram beschreibt darin, wie man mit Hilfe einfacher Computerprogramme auch komplexe Vorgänge in der Natur erklären kann. Nun kündigt der Engländer, der mit 15 seine erste wissenschaftliche Arbeit veröffentlicht und mit 20 seinen Doktor in theoretischer Physik gemacht hat, den nächsten Paukenschlag an. Seine Software "Wolfram Alpha" soll ab Mai 2009 den Suchmaschinenmarkt revolutionieren. Es soll eine Wissensmaschine sein, die Antworten berechnet, anstatt eine Liste von Links auszugeben. Bislang "können wir nur Fragen beantworten, die schon einmal gestellt worden sind", schreibt Wolfram in seinem Blog, "wir können Dinge nachschlagen, aber nichts Neues herausfinden." Für den Sohn deutscher Eltern muss wohl immer alles neu sein. Wie schon "Mathematica" und die "Neue Art der Wissenschaft, so sei auch "Wolfram Alpha" ein "Projekt, das niemals fertig sein wird", sagt er.
    Seine Wissensmaschine "füttert" der Nutzer unter wolframalpha.com mit Fragen statt mit einzelnen Suchbegriffen. Die werden in Rechenaufgaben umformuliert und von Algorithmen mit Hilfe einer gigantischen Datenbank gelöst. Diese Datenbank wiederum soll Fakten und Zusammenhänge aus Politik und Wissenschaft, Kultur, Technik und anderen Gebieten enthalten. Alle diese Daten sind angeblich von einem etwa 100 Personen starken Team geprüft und für zuverlässig befunden worden. Auf die Qualität der Daten muss sich der Nutzer allerdings blind verlassen, während eine Google-Suche in der Regel den Vergleich mehrerer Quellen ermöglicht. Meinungen und überhaupt alles Nicht-Faktische kann "Wolfram Alpha" nicht abbilden. Nova Spivack, Pionier auf dem Gebiet des semantischen Internets, durfte sich "Wolfram Alpha" bislang als Einziger genauer ansehen und beschreibt es als "überaus mächtigen Taschenrechner, mit dem man nicht nur Rechenaufgaben lösen kann". So kann es zum Beispiel die momentane Position der Internationalen Raumstation ISS berechnen. Die Antworten sind laut Spivack aber dermaßen detailliert, dass man einen Universitätsabschluss im jeweiligen Fachgebiet brauche, um sie zu verstehen. Das Genie hat eine Wissensmaschine für Genies entwickelt - für alle anderen eine Wahnsinnsmaschine." Vgl.: http://www.wolframalpha.com
  6. Plath, J.: Allianz gegen Google : Streit um die Verwertungsrechte von Büchern (2008) 0.01
    0.006894695 = product of:
      0.05515756 = sum of:
        0.012858554 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.012858554 = score(doc=1333,freq=32.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.040292785 = weight(_text_:kollektive in 1333) [ClassicSimilarity], result of:
          0.040292785 = score(doc=1333,freq=2.0), product of:
            0.13278988 = queryWeight, product of:
              7.84674 = idf(docFreq=46, maxDocs=44218)
              0.016922936 = queryNorm
            0.30343264 = fieldWeight in 1333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.84674 = idf(docFreq=46, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1333)
        0.002006221 = product of:
          0.008024884 = sum of:
            0.008024884 = weight(_text_:22 in 1333) [ClassicSimilarity], result of:
              0.008024884 = score(doc=1333,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.1354154 = fieldWeight in 1333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1333)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Content
    "5.5.2009, 5.1.2010, 5.4.2011 - was im Thriller die ablaufende Uhr ist, sind im Konflikt mit Googles Buchsuche die Stichtage. Sie gehören zum Vergleich US-amerikanischer Autoren und Verleger mit der digitalen Bibliothek der Suchmaschinenfirma. Der Vergleich bedeute, warnt Alexander Skipis, Geschäftsführer des Börsenvereins, eine "kalte Enteignung". Daher haben sich die Organisationen von Buchhändlern und Verlegern mit den Verwertungsgesellschaften und Autorenverbänden aus Deutschland, der Schweiz und Österreich zu einer "Allianz" zusammengeschlossen. Sie hat sich jetzt geeinigt, den starken Tönen moderate Winkelzüge folgen zu lassen. Stein des Anstoßes ist das Vorgehen des Suchmaschinen-Konzerns: Mit Hilfe großer Universitätsbibliotheken hat Google bisher ohne Genehmigung von Autoren und Verlagen sieben Millionen Bücher gescannt, die nun im Internet teilweise oder ganz lesbar sind. Erlaubt war das nur bei etwa einer Million Büchern, den Klassikern. Die anderen Millionen Bücher, durchweg aus dem 20. Jahrhundert, unterliegen dem Urheberrecht, auch wenn sie größtenteils nicht mehr verlegt werden.
    Empört zogen US-Autoren und -Verlage vor Gericht und handelten im Herbst einen Vergleich aus, den das Gericht noch genehmigen muss. Er sieht vor, dass Google die Verfahrenskosten trägt, jedem Autor eines ungenehmigt digitalisierten Buches 60 US-Dollar zahlt (insgesamt 45 Millionen US-Dollar) sowie 34,5 Millionen US-Dollar für die Gründung eines digitalen, von Google unabhängigen Buchregisters bereitstellt. Das Register soll die Einnahmen verteilen (37 Prozent an Google, 63 Prozent an die Rechteinhaber), die Google erwirtschaftet aus dem kostenpflichtigen Zugang zu Büchern oder ihrem Download (als Ebook oder Book on Demand), aus der Werbung sowie aus Online-Abonnements für Institutionen und Bibliotheken. Und natürlich dürfen die Scan-Maschinen weiter laufen. Die Konsequenzen des Vergleichs lassen tief durchatmen. Google erhält, warnt Robert Darnton in "The New York Review of Books", praktisch ein Digitalisierungsmonopol für die USA. Mehr noch: Die millionenfache Verletzung des Urheberrechts wird pragmatisch durchgewunken. Die Verlage erfreut nämlich, dass Google ein neues Geschäftsfeld erschlossen hat: all die vergriffenen Bücher, deren Nachdruck sie für nicht lohnend halten. Die Suchmaschinenfirma geht ihrerseits vom Prinzip der Finanzierung durch Werbung ab: Google wird auf einen Schlag weltgrößter Verleger und weltgrößter Buchhändler. Die Buchsuche wandelt sich zum Online-Buch(inhalte)verkauf.
    Weil der Vergleich für jedes in den USA vorhandene Buch gilt, sind von ihm auch Autoren und Verlage hier zu Lande betroffen. Deren Verbände beunruhigt die in Europa unbekannte kollektive Abtretung der Urheberrechte - bei den bisher gescannten Büchern gegen 60 US-Dollar, bei den bis zum 5.4.2011 gescannten Titeln einfach so, sofern kein Widerspruch eingelegt wird. An dieser Stelle kommt die Allianz ins Spiel: Weil es aussichtslos sei, den Vergleich zu verändern, will sie dessen Möglichkeiten ausschöpfen. Die Verwertungsgesellschaften Deutschlands, der Schweiz und Österreichs, die bisher für mehr als 400 000 Autoren und Verlage Abgaben in Kopierläden, auf CDs und Geräte erheben, sollen kollektiv für ihre Mitglieder die 60 US-Dollar beantragen und anschließend Google jede Nutzung untersagen ("Removal"). Danach soll über die Nutzung der vergriffenen Bücher mit Google und Dritten verhandelt werden, über die Verwertung der lieferbaren aber offenbar nicht: Schließlich gibt es mit "libreka!" eine eigene Online-Datenbank der deutschsprachigen Verlage. Also "take the money and run"? Der Verleger Wulf von Lucius hat die Aufgabe der VG Wort schon "Flöhe hüten" genannt. Doch noch ist unklar, ob die Mitgliederversammlungen das Vorgehen überhaupt absegnen. Denn während der deutsche Börsenverein eine harte Linie fährt, dürfte Autoren freuen, dass Google zahlt - anders als "libreka!". Nur hat das Formular unter www.googlebooksettlement.com nicht weniger als sechs Seiten. Es knirscht noch bei der Übertragung des Urheberrechts ins digitale Zeitalter."
    Date
    5. 1.1997 9:39:22
  7. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.01
    0.006471654 = product of:
      0.077659845 = sum of:
        0.018184742 = weight(_text_:und in 3700) [ClassicSimilarity], result of:
          0.018184742 = score(doc=3700,freq=16.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.4848303 = fieldWeight in 3700, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
        0.0594751 = weight(_text_:kritische in 3700) [ClassicSimilarity], result of:
          0.0594751 = score(doc=3700,freq=2.0), product of:
            0.11407853 = queryWeight, product of:
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.016922936 = queryNorm
            0.5213523 = fieldWeight in 3700, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3700)
      0.083333336 = coord(2/24)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  8. Marahrens, O.: Europa und die Informationsgesellschaft : ein Bericht zum SuMa-eV-Forum am 28. September in Berlin (2007) 0.01
    0.005839546 = product of:
      0.04671637 = sum of:
        0.025761135 = weight(_text_:kooperative in 52) [ClassicSimilarity], result of:
          0.025761135 = score(doc=52,freq=2.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.22462484 = fieldWeight in 52, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.012923993 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.012923993 = score(doc=52,freq=44.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.34457147 = fieldWeight in 52, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=52)
        0.00803124 = product of:
          0.01606248 = sum of:
            0.01606248 = weight(_text_:systeme in 52) [ClassicSimilarity], result of:
              0.01606248 = score(doc=52,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.17737058 = fieldWeight in 52, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=52)
          0.5 = coord(1/2)
      0.125 = coord(3/24)
    
    Content
    "Google ist überall - Die Suchmaschine hat es geschafft, ihren Namen synonym zur Informationssuche im Internet zu setzen. Schon allein deswegen ist sie auch in Bibliothekarskreisen, die sich ja auch intensiv um Informationen und deren Erschließung und Auffindbarmachung kümmern, allgegenwärtiges Gesprächsthema. Sucht man im bekannten bibliothekarischen Weblog Netbib von Edlef Stabenau nach Google, so erhält man diverseTreffer, und auch im Archiv der Mailingliste inetbib wird man bei einer Suchanfrage nach Google mit Treffern geradezu überschüttet. Das Thema Google ist für Bibliotheken also offenbar von beträchtlicher Bedeutung. Kein Wunder, sehen doch einige in Google eine Konkurrenz und vielleicht sogar eine Gefahr für Bibliotheken und ihr Informationsangebot. Die Frage, die sich viele Nutzer stellen, lautet ja: Welchen Mehrwert kann mir eine Bibliothek bieten, wenn ich doch mit Google auf einfache Weise alles finde, was ich suche? So wird die Informationskrake Google durchaus auch in Bibliothekskreisen kritisch, bisweilen sogar ängstlich beobachtet. Für Diskussionen im Suchmaschinensektor sorgt auch der gemeinnützige Verein SuMa-eV. Der Verein ist noch recht jung (gegründet Mitte 2004) und hat zum Ziel, Suchmaschinentechnologien zu fördern und den freien Wissenszugang zu gewährleisten. Zu den geförderten Projekten des Vereins zählen unter anderem Yacy, eine Peer-to-Peer-Suchmaschine, und Meta-ger2, eine Metasuchmaschine, die unter dem Motto »Metasuche ohne Müll« steht. SuMa-eV setzt sich für einen dezentralen, anbieter-unabhängigen und damit nicht monopolisierbaren Informationszugang ein. Dieser kann nach Meinung des Vereins am ehesten durch viele verteilte Minisucher realisiert werden. Diese thematisch voneinander abgegrenzten Suchsysteme sollen ihren Teilbereich jeweils durch Crawling indexieren und ihrerseits durch Metasuchsysteme abgefragt werden. Dabei kann es durchaus mehrere Suchsysteme für ein Thema ge ben, da derartige Redundanzen helfen, die Informationsvielfalt zu gewährleisten. Allem übergeordnet kann es noch ein weiteres Metasuchsystem geben, das seinerseits die angeschlossenen Submetasuchsysteme durchstöbert, damit der Nutzer eine einzelne Oberfläche zur Nutzung der Suchmaschinen hat. Mit Hilfe der Metasuche können große Datenmengen auf einer einheitlichen Suchoberfläche abgefragt werden, ohne dass gigantische Indizes gehalten werden müssen. Auch Ausfallsicherheit ist aufgrund der Redundanz gewährleistet: fällt ein Teilsystem aus, so kann ein anderes die Versorgung des Metasuchsystems übernehmen. Gleichzeitig kann ein solches System nur sehr schwer oder gar nicht zensiert werden, wodurch demokratische Grundprinzipien der Meinungsfreiheit und der Grundsatz »Eine Zensur findet nicht statt« gesichert werden.
    Eine Realisation ähnlicher Konzepte findet sich zum Beispiel auch in der Bibliothekswelt: Einzelne Opacsysteme werden mit anderen zu einem Verbund koordiniert, der seinerseits eine Möglichkeit anbietet, die angeschlossenen Systeme zu durchsuchen (zwar technisch keine echte Metasuche, aber durchaus vergleichbar, da verschiedene Einzelsysteme unter einer einheitlichen Oberfläche angeboten werden). Übergeordnet gibt es weitere, verbundübergreifende Suchmöglichkeiten wie das P7+-Verbundportal. Der Katalog der DNB kommt dazu und umfasst sämtliche deutschsprachige Literatur (was als Redundanz zu den anderen Einzelopacs gesehen werden kann). Als echtes Metasuchsystem gibt es in Bibliothekskreisen den KVK, der wiederum seinerseits den Katalog der DNB, die einzelnen Verbundkataloge, aber auch nochmal die Einzelsysteme diverser Bibliotheken zusammenfasst. Der Kooperative Bibliotheksverbund Berlin-Brandenburg (KoBV) geht sogar einen Schritt weiter und setzt komplett auf verteilte Datenhaltung, indem er z.B. einen dezentralen Verbundkatalog betreibt. Die heterogenen Einzelsysteme der Bibliotheken werden über eine zentrale Suchmaschine miteinanderverbunden. So erkennt man bei diesem Beispiel ganz deutliche Parallelen zu den Überlegungen des SuMa-eV. ...
    Fazit - Insgesamt zeigte die Veranstaltung, dass SuMa-eV seinem Ziel einer dezentralen Informationsstruktur im Netz näherkommt und aus technischer Sicht beeindruckende Fortschritte vorzuweisen sind. Eine zentrale Plattform zur einfachen Erstellung von Minisuchern kann ein guter Weg sein, Nutzer an die Materie heranzuführen und es allen Interessenten zu ermöglichen, sich zu beteiligen. Kurz vor der Fertigstellung des vorliegenden Artikels zog Google bereits nach und stellte eine personalisierbare, selbst zusammenstellbare Suchmaschine vor, die von allen frei genutzt werden kann.» Das verdeutlicht erneut, dass der Weg zu dem genannten Ziel bei der übermächtigen Konkurrenz durch Google noch beschwerlich und lang sein wird. Linden betonte auf der Veranstaltung, immerhin hätten Google und Co. einen erheblichen Technikvorsprung von etwa fünf Jahren und trieben zudem die Weiterentwicklung stetig voran, so dass Europa noch zehn bis fünfzehn Jahre brauche, um überhaupt mit den US-Amerikanern Schritt halten zu können. Die Europäer müssten mit einem Ruck geweckt werden, um nicht mehr nur passiv zuzuschauen und Google gewähren zu lassen. Dass die Bibliotheken an diesem Ruck mitwirken müssen, ist nach Lewandowskis zu Anfang erwähnten Postulaten unstrittig. In diesem Sinne: gehen wir ans Werk!"
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.1, S.35-40
  9. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.01
    0.0057837702 = product of:
      0.046270162 = sum of:
        0.013777021 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.013777021 = score(doc=4063,freq=18.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.019107739 = product of:
          0.038215477 = sum of:
            0.038215477 = weight(_text_:prozesse in 4063) [ClassicSimilarity], result of:
              0.038215477 = score(doc=4063,freq=2.0), product of:
                0.10819818 = queryWeight, product of:
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.016922936 = queryNorm
                0.3531989 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.3935823 = idf(docFreq=200, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 4063) [ClassicSimilarity], result of:
              0.026770797 = score(doc=4063,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 4063, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4063)
          0.5 = coord(1/2)
      0.125 = coord(3/24)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  10. Gasser, U.; Thurman, J.: Themen und Herausforderungen der Regulierung von Suchmaschinen (2007) 0.01
    0.005547132 = product of:
      0.06656558 = sum of:
        0.015586922 = weight(_text_:und in 382) [ClassicSimilarity], result of:
          0.015586922 = score(doc=382,freq=16.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.41556883 = fieldWeight in 382, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=382)
        0.050978657 = weight(_text_:kritische in 382) [ClassicSimilarity], result of:
          0.050978657 = score(doc=382,freq=2.0), product of:
            0.11407853 = queryWeight, product of:
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.016922936 = queryNorm
            0.44687337 = fieldWeight in 382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.046875 = fieldNorm(doc=382)
      0.083333336 = coord(2/24)
    
    Abstract
    Mit der rasanten Entwicklung der Suchmaschinentechnologien sowie der wachsenden Marktkraft von einzelnen Suchmaschinenanbietern und deren steigender Bedeutung im Blick auf den Informationszugang verändert sich nicht nur die Anzahl, sondern auch die Qualität derjenigen Konflikte, welche die Gerichte, Gesetzgeber und Behörden in den USA und in Europa beschäftigen. Das vorliegende Kapitel zeichnet - basierend auf einer andernorts vorgelegten Detailanalyse - in groben Umrissen diese Geschichte der Entstehung eines >Rechts der Suchmaschinen< nach und diskutiert sodann ausführlicher, welche Debattenthemen in der sich entfaltenden Regulierungsdiskussion eine besonders prominente Rolle spielen und die eher punktuellen rechtlichen Interventionen aus der ersten Regulierungswelle abzulösen scheinen. Daran anschließend werden die zentralen Herausforderungen beleuchtet, welchen sich nationale Gesetzgeber bei ihren Regulierungsbemühungen gegenüber sehen. Im letzten Teil des Kapitels wird der Bedarf nach einer systematischen Evaluation von alternativen (und teilweise konkurrierenden) Ansätzen der Suchmaschinenregulierung illustriert und zum Schluss grundlegende Wertungen eines demokratisch strukturierten informationellen Ökosystems diskutiert, aus welchen normative Kriterien für die kritische Beurteilung von nunmehr in steigender Kadenz vorgelegten Vorschlägen zur >Suchmaschinen-Governance< abgeleitet werden können.
  11. Fauldrath, J.; Kunisch, A.: Kooperative Evaluation der Usability von Suchmaschineninterfaces (2005) 0.01
    0.0055085416 = product of:
      0.0661025 = sum of:
        0.05152227 = weight(_text_:kooperative in 3186) [ClassicSimilarity], result of:
          0.05152227 = score(doc=3186,freq=2.0), product of:
            0.114685155 = queryWeight, product of:
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.016922936 = queryNorm
            0.44924968 = fieldWeight in 3186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7769065 = idf(docFreq=136, maxDocs=44218)
              0.046875 = fieldNorm(doc=3186)
        0.01458023 = weight(_text_:und in 3186) [ClassicSimilarity], result of:
          0.01458023 = score(doc=3186,freq=14.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.38872904 = fieldWeight in 3186, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3186)
      0.083333336 = coord(2/24)
    
    Abstract
    Im Rahmen einer Projektarbeit des Fachbereichs Informations- und Wissensmanagement (IuW) der Fachhochschule Darmstadt mit T-Online International AG (Weiterstadt) wurde eine Untersuchung der Funktionalitäten von Suchmaschinen, Portalen und Metasuchmaschinen durchgeführt. Ziel war es zu ermitteln, inwieweit Standards für das Produkt Suchdienstleistung im Web existieren und wie diese Funktionalitäten bereits heute in die Angebote integriert sind. Hierzu wurden in enger Zusammenarbeit ein Kriterienkatalog erarbeitet und anschließend die Produkte evaluiert. Besonders wichtig ist dabei, dass die Nutzer das Gefühl erhalten, ihre Distanz zur gesuchten Information durch das Angebot zu verringern. Hierbei ist jede Form von Vereinfachung und Hilfe gewünscht, um möglichst schnell, einfach und umfassend zum Ergebnis zu kommen. Das Suchangebot ist für die Suchmaschinenanbieter ein Wirtschaftsfaktor, aber auch für kommerzielle Anbieter ist es wichtig, mit einem möglichst hohen Ranking auf gut gestalteten Ergebnisseiten auffindbar zu sein. Deshalb ist das Thema Usability von Suchmaschineninterfaces brandaktuell.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.21-28
  12. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.0054373713 = product of:
      0.06524845 = sum of:
        0.050726194 = weight(_text_:statistische in 1777) [ClassicSimilarity], result of:
          0.050726194 = score(doc=1777,freq=2.0), product of:
            0.124656945 = queryWeight, product of:
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.016922936 = queryNorm
            0.40692633 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3661537 = idf(docFreq=75, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
        0.014522257 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
          0.014522257 = score(doc=1777,freq=20.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.3871834 = fieldWeight in 1777, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.083333336 = coord(2/24)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  13. Pasquinelli, M.: Googles PageRank : Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens (2009) 0.01
    0.0050436384 = product of:
      0.06052366 = sum of:
        0.009545001 = weight(_text_:und in 25) [ClassicSimilarity], result of:
          0.009545001 = score(doc=25,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.2544829 = fieldWeight in 25, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=25)
        0.050978657 = weight(_text_:kritische in 25) [ClassicSimilarity], result of:
          0.050978657 = score(doc=25,freq=2.0), product of:
            0.11407853 = queryWeight, product of:
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.016922936 = queryNorm
            0.44687337 = fieldWeight in 25, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7410603 = idf(docFreq=141, maxDocs=44218)
              0.046875 = fieldNorm(doc=25)
      0.083333336 = coord(2/24)
    
    Abstract
    Ein Großteil der Kritik an Google konzentriert sich auf das imperiale Wesen seines Monopols: seine dominante Position, die Datenschutzprobleme, die Zensur, die globale dataveillance. Studien zur molekularen Ökonomie im Innersten dieser Vorherrschaft gibt es dagegen nur wenige. Während viele kritische Beiträge zu Google Foucaults Jargon missbrauchen und sich der Vorstellung eines digitalen Panoptikons hingeben, entspringt die Macht Googles einer ökonomischen Matrix, die von der kabbalistischen Formel des PageRank bestimmt wird - jenem ausgeklügelten Algorithmus, der die Wichtigkeit einer Webseite und die Hierarchie der Google-Suchresultate bestimmt. Wie sich im folgenden zeigen wird, lässt sich die Funktion von PageRank problemlos nachvollziehen. Eine "politische Ökonomie" dieses Apparats ist jedoch noch ausständig.
  14. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.00
    0.0048411195 = product of:
      0.038728956 = sum of:
        0.012726668 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
          0.012726668 = score(doc=4996,freq=6.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.33931053 = fieldWeight in 4996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4996)
        0.021416638 = product of:
          0.042833276 = sum of:
            0.042833276 = weight(_text_:systeme in 4996) [ClassicSimilarity], result of:
              0.042833276 = score(doc=4996,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.4729882 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
        0.0045856484 = product of:
          0.018342594 = sum of:
            0.018342594 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.018342594 = score(doc=4996,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme.
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Date
    19. 2.2019 17:22:00
  15. Zutter, S.: Alles dreht sich um die Suche : Information Online Konferenz in Sydney, Australien (2005) 0.00
    0.004466885 = product of:
      0.03573508 = sum of:
        0.019483652 = weight(_text_:und in 3423) [ClassicSimilarity], result of:
          0.019483652 = score(doc=3423,freq=36.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.51946104 = fieldWeight in 3423, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3423)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 3423) [ClassicSimilarity], result of:
              0.026770797 = score(doc=3423,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.5 = coord(1/2)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 3423) [ClassicSimilarity], result of:
              0.011464121 = score(doc=3423,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 3423, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3423)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Mit über 1100 Delegierten und 85 Ausstellern stellte die zwölfte Information Online auch 2005 wieder die im Raum Asien und Pazifik größte und renommierteste regionale Fachmesse für den Informationsbereich dar. Alle zwei Jahre veranstaltet der australische Informationsberufe-Verband ALIA in Sydney die Tagung mit Fachreferenten aus Australien, Asien, Europa und USA. An drei bis fünf Tagen kommen hier Bibliothekare und Informationsspezialisten aus Australien und Neuseeland, Indien, Malaysien, Amerika, und Europa zusammen, um sich anhand von Vorträgen, Workshops, einer Fachausstellung und reichlich Gelegenheiten für informelles Networking einen Überblick über den sich rasant entwickelnden Markt des elektronischen Informationsmanagement und der Informationsversorgung zu verschaffen. 60 Referenten und neun Hauptredner (Angela Abell, Kate Andrews, Liesle Capper, Peter Crowe, Prof. Brian Fitzgerald, David Hawking, Mary Lee Kennedy, Hemant Manohar, Joan Frye Williams) lieferten Forschungsergebnisse, Fallstudien, Fortschrifttsberichte und programmatische Thesen aus den Themenbereichen Informationsarchitektur, Online Archive, Content Management Systeme, Urheberrecht und WWW, Web Services für Bibliotheken und Informationsstellen, Benutzungsschemata für Web-Technologien, Schnittstellen, Datenpool, Bibliotheksautomation, Referenzservice online, Metadaten für Informationssysteme und für Organisationen, Wissenschaftliches Publizieren, Open Access, Knowledge Management und intellektuelles Kapital, Benutzerpsychologie, Online lernen, Berufsbild Informationsspezialist. Ein Drittel der Beiträge beschäftigte sich mit Fragen rund um Information beziehungsweise Knowledge Discovery Search, Search und nochmals Search. Dreht sich angesichts der kommerziellen Erfolge von Google und Konsorten denn alles nur noch um die Websuche?
    Date
    22. 5.2005 13:51:43
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.3, S.189-190
  16. Bekavac, B.; Herget, J.; Hierl, S.; Öttl, S.: Visualisierungskomponenten bei webbasierten Suchmaschinen : Methoden, Kriterien und ein Marktüberblick (2007) 0.00
    0.004122345 = product of:
      0.049468137 = sum of:
        0.017010268 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.017010268 = score(doc=399,freq=14.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.4535172 = fieldWeight in 399, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=399)
        0.03245787 = product of:
          0.06491574 = sum of:
            0.06491574 = weight(_text_:systeme in 399) [ClassicSimilarity], result of:
              0.06491574 = score(doc=399,freq=6.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.71683466 = fieldWeight in 399, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=399)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Bei webbasierten Suchmaschinen werden zunehmend auch Systeme mit Visualisierungskomponenten für die Ergebnisrepräsentation angeboten. Die Ansätze der Visualisierungen unterscheiden sich hierbei in der Zielsetzung und Ausführung deutlich voneinander. Der folgende Beitrag beschreibt die verwendeten Visualisierungsmethoden, systematisiert diese anhand einer Klassifikation, stellt die führenden frei zugänglichen Systeme vor und vergleicht diese anhand der Kriterien aus der Systematisierung. Die typischen Problemfelder werden identifiziert und die wichtigsten Gemeinsamkeiten und Unterschiede der untersuchten Systeme herausgearbeitet. Die Vorstellung zweier innovativer Visualisierungskonzepte im Bereich der Relationenvisualisierung innerhalb von Treffermengen und der Visualisierung von Relationen bei der Suche nach Musik schließen den Beitrag ab.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.149-158
  17. Niedermair, K.: Gefährden Suchmaschinen und Discovery-Systeme die informationelle Autonomie? (2014) 0.00
    0.00397599 = product of:
      0.04771188 = sum of:
        0.015586922 = weight(_text_:und in 811) [ClassicSimilarity], result of:
          0.015586922 = score(doc=811,freq=4.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.41556883 = fieldWeight in 811, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=811)
        0.03212496 = product of:
          0.06424992 = sum of:
            0.06424992 = weight(_text_:systeme in 811) [ClassicSimilarity], result of:
              0.06424992 = score(doc=811,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.7094823 = fieldWeight in 811, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.09375 = fieldNorm(doc=811)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 67(2014) H.1, S.109-125
  18. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.00
    0.0035502024 = product of:
      0.028401619 = sum of:
        0.012150191 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.012150191 = score(doc=867,freq=14.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.32394084 = fieldWeight in 867, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.013385398 = product of:
          0.026770797 = sum of:
            0.026770797 = weight(_text_:systeme in 867) [ClassicSimilarity], result of:
              0.026770797 = score(doc=867,freq=2.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.2956176 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
        0.0028660302 = product of:
          0.011464121 = sum of:
            0.011464121 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.011464121 = score(doc=867,freq=2.0), product of:
                0.059261236 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016922936 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.25 = coord(1/4)
      0.125 = coord(3/24)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
  19. Franke-Maier, M.; Rüter, C.: Discover Sacherschließung! : Was machen suchmaschinenbasierte Systeme mit unseren inhaltlichen Metadaten? (2015) 0.00
    0.003520849 = product of:
      0.042250186 = sum of:
        0.015748449 = weight(_text_:und in 1706) [ClassicSimilarity], result of:
          0.015748449 = score(doc=1706,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.41987535 = fieldWeight in 1706, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1706)
        0.02650174 = product of:
          0.05300348 = sum of:
            0.05300348 = weight(_text_:systeme in 1706) [ClassicSimilarity], result of:
              0.05300348 = score(doc=1706,freq=4.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.58529305 = fieldWeight in 1706, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1706)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Discovery Systeme erlauben einen neuen und anderen Zugriff auf verfügbare Ressourcen einer Bibliothek als die traditionellen Online-Kataloge. Daraus ergeben sich Probleme, aber auch Chancen für die Nutzung und Sichtbarkeit der bibliothekarischen Sacherschließung. Der Vortrag gibt einen Einblick in die Funktionalitäten und Funktionsweisen von Discovery Systemen am Beispiel eines großen Players, Primo von ExLibris, sowie die Auswirkungen auf bibliothekarische inhaltliche Metadaten. Es werden Chancen und Grenzen der Technik beleuchtet. Der Vortrag schließt mit der Reflektion der Implikationen für die Arbeit im Fachreferat.
    Content
    Präsentation zur Fortbildungsveranstaltung für Fachreferentinnen und Fachreferenten der Politikwissenschaft und Soziologie, 23.01.2015.
  20. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.00
    0.0034433082 = product of:
      0.041319698 = sum of:
        0.0134986695 = weight(_text_:und in 3184) [ClassicSimilarity], result of:
          0.0134986695 = score(doc=3184,freq=12.0), product of:
            0.037507437 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016922936 = queryNorm
            0.35989314 = fieldWeight in 3184, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.02782103 = product of:
          0.05564206 = sum of:
            0.05564206 = weight(_text_:systeme in 3184) [ClassicSimilarity], result of:
              0.05564206 = score(doc=3184,freq=6.0), product of:
                0.09055887 = queryWeight, product of:
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.016922936 = queryNorm
                0.6144297 = fieldWeight in 3184, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.3512506 = idf(docFreq=569, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3184)
          0.5 = coord(1/2)
      0.083333336 = coord(2/24)
    
    Abstract
    Die Bewertung von Internet-Dokumenten nach ihrer Qualität wird im Zeitalter verteilten und in großen Mengen vorliegenden Wissens zunehmend an Software delegiert. Dies gilt besonders bei der Suche nach Informationen etwa mit Internet-Suchmaschinen, bei der Qualitätsbewertungssysteme als Filter einsetzbar sind. Die starke Heterogenität der Qua-lität von Internet-Dokumenten lässt hier einen besonderen Mehrwert erwarten. Experimentelle Systeme behandeln verschiedeneAspekte und nutzen unterschiedliche Definitionen von Oualität. Im Einsatz befindliche Systeme greifen zur Zeit auf einzelne und begrenzte Aspekte von Qualität zu. Insbesondere die Analyse der Verlinkungsstruktur des Internets bietet einen Ansatzpunkt für existierende Systeme. Die Komplexität des Qualitätskonzepts und der Dokumente erfordert jedoch auf mehreren Aspekten beruhende Definitionen. Im Projekt AQUAINT (Automatische Qualitätsabschätzung für Internet Ressourcen) werden Oualitätsdefinitionen aus menschlichen Urteilen abgeleitet. Formale Eigenschaften von Internet-Seiten werden automatisch extrahiert. Menschliche Oualitätsurteile unterschiedlichster Art bilden die Grundlage für Verfahren des maschinellen Lernens. So entstehen Klassifikationssysteme, welche die menschlichen Urteile so weit wie möglich simulieren. Diese werden in prototypischen Such- und Filtersystemen integriert.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.13-20

Years

Languages

  • d 473
  • e 101
  • f 1
  • nl 1
  • More… Less…

Types

  • a 470
  • m 58
  • el 56
  • x 13
  • s 9
  • p 2
  • r 2
  • More… Less…

Subjects

Classifications