Search (176 results, page 1 of 9)

  • × language_ss:"d"
  • × theme_ss:"Suchmaschinen"
  • × year_i:[2000 TO 2010}
  1. Wild, F.: Visuelle Verfahren im Information Retrieval (2005) 0.07
    0.07337885 = product of:
      0.1467577 = sum of:
        0.012743366 = weight(_text_:information in 3182) [ClassicSimilarity], result of:
          0.012743366 = score(doc=3182,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.20156369 = fieldWeight in 3182, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.03783727 = weight(_text_:retrieval in 3182) [ClassicSimilarity], result of:
          0.03783727 = score(doc=3182,freq=6.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.34732026 = fieldWeight in 3182, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.08632957 = weight(_text_:modell in 3182) [ClassicSimilarity], result of:
          0.08632957 = score(doc=3182,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.39862972 = fieldWeight in 3182, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=3182)
        0.0098475 = product of:
          0.0295425 = sum of:
            0.0295425 = weight(_text_:29 in 3182) [ClassicSimilarity], result of:
              0.0295425 = score(doc=3182,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.23319192 = fieldWeight in 3182, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3182)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Bislang wird dem Studium bestehender Verfahren in der Visualisierung des Document Retrieval von Suchmaschinen zu wenig Aufmerksamkeit geschenkt. Der vorliegende Beitrag widmet sich dem Studium von acht Systemen und Prototypen, um die best-practice-Auslese und die Identifikation erfolgsrelevanter Features und Element zu erleichtern. Er legt dazu ein Modell für das visuelle Information Retrieval in Suchmaschinen vor, beschreibt und analysiert die ausgewählten Verfahren und deduziert Herausforderungen für künftige Forschungen. Die wichtigsten Erkenntnisse dabei sind, dass zwar zu wenig integrale Systeme existieren, die den gesamten Retrievalprozess integriert visuell unterstützen, die vorhandenen aber bereits (trotz ihrer Unvollständigkeit) einen Ausweg aus der linearen Krise der Ergebnispräsentation textbasierter Suchmaschinen aufzeigen. Wenngleich noch nicht alle Informationsbedürfnisse von den untersuchten Verfahren erfüllt werden, so zeichnet sich doch ab, dass insbesondere durch die Innovation von Interaktions- und Manipulationsformen neue Wege beschritten werden, die sich auf Effektivität und Effizienz derRetrievalverfahren auswirken.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.29-34
  2. Koenemann, J.; Lindner, H.-G.; Thomas, C.: Unternehmensportale : Von Suchmaschinen zum Wissensmanagement (2000) 0.03
    0.028896274 = product of:
      0.115585096 = sum of:
        0.01486726 = weight(_text_:information in 5233) [ClassicSimilarity], result of:
          0.01486726 = score(doc=5233,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.23515764 = fieldWeight in 5233, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5233)
        0.100717835 = weight(_text_:modell in 5233) [ClassicSimilarity], result of:
          0.100717835 = score(doc=5233,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.465068 = fieldWeight in 5233, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5233)
      0.25 = coord(2/8)
    
    Abstract
    Aufgabe des Wissensmanagements ist es, den Mitarbeitern im Unternehmen entscheidungs- und handlungsrelevante Informationen bereitzustellen und die Mitarbeiter bei der intelligenten Verarbeitung dieser Informationen zu unterstützen. Ein hierzu genutztes Werkzeug von wachsender Bedeutung sind Unternehmensportale. Wir beschreiben kurz die Entwicklung von Portalen im World Wide Web (WWW), um dann Web-Portale von verschiedenen Arten von Unternehmensportalen abzugrenzen. Wir zeigen erwartete Funktionalitäten auf und stellen ein 5-Schichten Modell einer Gesamtarchitektur für Portale dar, welche die wesentlichen Komponenten umfasst. Im Anschluss werden die Besonderheiten der organisatorischen Realisierung und im Ausblick der Übergang von Portalen zum ,ubiquitous personalized information supply", der überall verfügbaren und individuellen Informationsversorgung behandelt
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.325-334
    Theme
    Information Resources Management
  3. Dambeck, H.: Wie Google mit Milliarden Unbekannten rechnet : Teil.1 (2009) 0.03
    0.028600229 = product of:
      0.22880183 = sum of:
        0.22880183 = weight(_text_:mathematisches in 3081) [ClassicSimilarity], result of:
          0.22880183 = score(doc=3081,freq=2.0), product of:
            0.30533072 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.036014426 = queryNorm
            0.7493574 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=3081)
      0.125 = coord(1/8)
    
    Abstract
    Ein Leben ohne Suchmaschinen? Für alle, die viel im World Wide Web unterwegs sind, eine geradezu absurde Vorstellung. Bei der Berechnung der Trefferlisten nutzt Google ein erstaunlich simples mathematisches Verfahren, das sogar Milliarden von Internetseiten in den Griff bekommt.
  4. Sietmann, R.: Suchmaschine für das akademische Internet (2004) 0.02
    0.024421576 = product of:
      0.097686306 = sum of:
        0.025744999 = weight(_text_:retrieval in 5742) [ClassicSimilarity], result of:
          0.025744999 = score(doc=5742,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.23632148 = fieldWeight in 5742, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
        0.07194131 = weight(_text_:modell in 5742) [ClassicSimilarity], result of:
          0.07194131 = score(doc=5742,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.33219144 = fieldWeight in 5742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5742)
      0.25 = coord(2/8)
    
    Abstract
    In Zusammenarbeit mit der norwegischen Suchtechnologie-Firma Fast Search & Transfer hat die Universitätsbibliothek Bielefeld den Prototyp einer Suchmaschine für wissenschaftliche Bibliotheken entwickelt. Dieser demonstriert jetzt mit dem öffentlichen Zugriff auf ausgewählte digitalisierte Sammlungen der Projektteilnehmer die neuen Möglichkeiten des akademischen Retrieval. <http://www.heise.de/RealMedia/ads/adstream_lx.ads/www.heise.de/newsticker/meldungen/wissenschaft/954604605/Middle1/he-test-contentads/zaehler.html/38363566383735383364653062323630?_RM_EMPTY_> Während kommerzielle Suchmaschinen wie Google oder Yahoo sich nicht an akademischen Kriterien orientieren, beschränkt sich die Bielefeld Academic Search Engine (BASE ) auf die von wissenschaftlichen Bibliotheken erschlossenen und aufbereiteten Inhalte. Dazu gehören Hochschulschriften, Preprints, elektronische Zeitschriften und digitale Sammlungen, wie beispielsweise die "Internet Library of Early Journals" des Oxford University Library Service und die "Wissenschaftlichen Rezensionsorgane und Literaturzeitschriften des 18. und 19. Jahrhunderts aus dem deutschen Sprachraum" der UB Bielefeld. Wer etwa bei Google die Stichworte "Immanuel Kant" +Frieden eingibt, kommt zwar schnell an den Originaltext des Aufsatzes "Zum ewigen Frieden" heran, tut sich jedoch schwer, unter den bunt gemischten über 11.000 Treffern gezielt weiter zu recherchieren. Das BASE-Modell dagegen stellt dem Nutzer hierfür vielfältige Navigationshilfen und Metainformationen zur Verfügung. So erleichtert unter anderem die Verfeinerung der Suche auf das Erscheinungsjahr den Zugriff auf die zeitgenössische Diskussion der berühmten Schrift des Königsberger Philosophen. Derzeit ermöglicht der BASE-Prototyp das Retrieval in 15 verschiedenen Archivquellen. Darunter befinden sich die Zeitschriften der Aufklärung, die Elektronischen Dissertationen der Universität Bochum, das elektronische Journal Documenta Mathematica sowie die Mathematischen Volltexte des Springer-Verlags. Der geplante Ausbau soll sich auf eine verteilte Architektur stützen, in der von einzelnen Bibliotheken lokal erstellte Indexe gemeinsam zu einem virtuellen Master-Index beitragen. Dies würde dem Nutzer die nahtlose Navigation durch die verteilten Bestände erlauben."
  5. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.02
    0.020800805 = product of:
      0.055468813 = sum of:
        0.013654728 = weight(_text_:information in 3635) [ClassicSimilarity], result of:
          0.013654728 = score(doc=3635,freq=62.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.21597885 = fieldWeight in 3635, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.038531587 = weight(_text_:retrieval in 3635) [ClassicSimilarity], result of:
          0.038531587 = score(doc=3635,freq=56.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.3536936 = fieldWeight in 3635, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.015625 = fieldNorm(doc=3635)
        0.0032825002 = product of:
          0.0098475 = sum of:
            0.0098475 = weight(_text_:29 in 3635) [ClassicSimilarity], result of:
              0.0098475 = score(doc=3635,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.07773064 = fieldWeight in 3635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3635)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    Date
    11. 2.2006 20:15:29
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  6. Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009) 0.02
    0.020640194 = product of:
      0.08256078 = sum of:
        0.010619472 = weight(_text_:information in 22) [ClassicSimilarity], result of:
          0.010619472 = score(doc=22,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.16796975 = fieldWeight in 22, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=22)
        0.07194131 = weight(_text_:modell in 22) [ClassicSimilarity], result of:
          0.07194131 = score(doc=22,freq=2.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.33219144 = fieldWeight in 22, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.0390625 = fieldNorm(doc=22)
      0.25 = coord(2/8)
    
    Abstract
    Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
    Source
    Deep Search: Politik des Suchens jenseits von Google; Deep Search-Konferenz, Wien, 2008.11.08; eine Veröffentlichung des World-Information Institute. Hrsg.: K. Becker u. F. Stalder
  7. Kanaeva, Z.: Ranking: Google und CiteSeer (2005) 0.02
    0.018379018 = product of:
      0.049010716 = sum of:
        0.012139066 = weight(_text_:information in 3276) [ClassicSimilarity], result of:
          0.012139066 = score(doc=3276,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.1920054 = fieldWeight in 3276, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.02548625 = weight(_text_:retrieval in 3276) [ClassicSimilarity], result of:
          0.02548625 = score(doc=3276,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.23394634 = fieldWeight in 3276, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3276)
        0.0113854 = product of:
          0.0341562 = sum of:
            0.0341562 = weight(_text_:22 in 3276) [ClassicSimilarity], result of:
              0.0341562 = score(doc=3276,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2708308 = fieldWeight in 3276, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3276)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
    Date
    20. 3.2005 16:23:22
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.87-92
  8. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.02
    0.01725793 = product of:
      0.04602115 = sum of:
        0.008670762 = weight(_text_:information in 386) [ClassicSimilarity], result of:
          0.008670762 = score(doc=386,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.13714671 = fieldWeight in 386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.025744999 = weight(_text_:retrieval in 386) [ClassicSimilarity], result of:
          0.025744999 = score(doc=386,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.23632148 = fieldWeight in 386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=386)
        0.011605391 = product of:
          0.034816172 = sum of:
            0.034816172 = weight(_text_:29 in 386) [ClassicSimilarity], result of:
              0.034816172 = score(doc=386,freq=4.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2748193 = fieldWeight in 386, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=386)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
    Date
    13. 5.2007 10:29:29
  9. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.02
    0.015955571 = product of:
      0.042548187 = sum of:
        0.008670762 = weight(_text_:information in 867) [ClassicSimilarity], result of:
          0.008670762 = score(doc=867,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.13714671 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.025744999 = weight(_text_:retrieval in 867) [ClassicSimilarity], result of:
          0.025744999 = score(doc=867,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.23632148 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.00813243 = product of:
          0.024397288 = sum of:
            0.024397288 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.024397288 = score(doc=867,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  10. Welp, C.: ¬Ein Code of Conduct für Suchmaschinen (2004) 0.02
    0.015261057 = product of:
      0.122088455 = sum of:
        0.122088455 = weight(_text_:modell in 4033) [ClassicSimilarity], result of:
          0.122088455 = score(doc=4033,freq=4.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.5637476 = fieldWeight in 4033, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.046875 = fieldNorm(doc=4033)
      0.125 = coord(1/8)
    
    Abstract
    In dem am 1. April 2003 in Kraft getretenen Jungendmedienschutzstaatsvertrag (JMStV) tauchen in § 7 Abs. 1 JMStV Suchmaschinen zum ersten Mal in einem deutschen Gesetz auf. 5 7 Abs. 1 JMStV verpflichtet die Betreiber von Suchmaschinen, einen Jugendschutzbeauftragten zu benennen. Um ihrer gesellschaftlichen Verantwortung gerecht zu werden, sollten sich die deutschen Suchmaschinenbetreiber darüber hinaus auf einen einheitlichen Verhaltenskodex einigen und sich zu dessen Einhaltung verpflichten. Eine solche Selbstverpflichtungserklärung würde den Nutzern und dem Gesetzgeber signalisieren, dass sich die Suchmaschinenbetreiber ihrer Verantwortung bewusst sind. Der Gesetzgeber kann sich in diesem Fall auf das Vorgeben des gesetzlichen Rahmens beschränken und Ressourcen einsparen. Ein solches Modell des Nebeneinanders einer Selbstregulierungsinitiative der Suchmaschinenbetreiber und einer Rahmengesetzgebung des Staates entspricht dem Modell der Ko-Regulierung, das davon ausgeht, dass sich staatliche Regulierung und Selbstregulierungsinitiativen der Industrie nicht gegenseitig ausschließen, sondern ergänzen.
  11. Lewandowski, D.: Web Information Retrieval (2005) 0.01
    0.013976692 = product of:
      0.05590677 = sum of:
        0.01471477 = weight(_text_:information in 4028) [ClassicSimilarity], result of:
          0.01471477 = score(doc=4028,freq=18.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.23274568 = fieldWeight in 4028, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
        0.041192 = weight(_text_:retrieval in 4028) [ClassicSimilarity], result of:
          0.041192 = score(doc=4028,freq=16.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.37811437 = fieldWeight in 4028, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=4028)
      0.25 = coord(2/8)
    
    Abstract
    WebInformationRetrieval hat sich als gesonderter Forschungsbereich herausgebildet. Neben den im klassischen Information Retrieval behandelten Fragen ergeben sich durch die Eigenheiten des Web neue und zusätzliche Forschungsfragen. Die Unterschiede zwischen Information Retrieval und Web Information Retrieval werden diskutiert. Derzweite Teil des Aufsatzes gibt einen Überblick über die Forschungsliteratur der letzten zwei Jahre. Dieser Aufsatz gibt einen Überblick über den Stand der Forschung im Bereich Web Information Retrieval. Im ersten Teil werden die besonderen Probleme, die sich in diesem Bereich ergeben, anhand einer Gegenüberstellung mit dem "klassischen" Information Retrieval erläutert. Der weitere Text diskutiert die wichtigste in den letzten Jahren erschienene Literatur zum Thema, wobei ein Schwerpunkt auf die - so vorhanden-deutschsprachige Literatur gelegt wird. Der Schwerpunkt liegt auf Literatur aus den Jahren 2003 und 2004. Zum einen zeigt sich in dem betrachteten Forschungsfeld eine schnelle Entwicklung, so dass viele ältere Untersuchungen nur noch einen historischen bzw. methodischen Wert haben; andererseits existieren umfassende ältere Reviewartikel (s. v.a. Rasmussen 2003). Schon bei der Durchsicht der Literatur wird allerdings deutlich, dass zu einigen Themenfeldern keine oder nur wenig deutschsprachige Literatur vorhanden ist. Leider ist dies aber nicht nur darauf zurückzuführen, dass die Autoren aus den deutschsprachigen Ländern ihre Ergebnisse in englischer Sprache publizieren. Vielmehr wird deutlich, dass in diesen Ländern nur wenig Forschung im Suchmaschinen-Bereich stattfindet. Insbesondere zu sprachspezifischen Problemen von Web-Suchmaschinen fehlen Untersuchungen. Ein weiteres Problem der Forschung im Suchmaschinen-Bereich liegt in der Tatsache begründet, dass diese zu einem großen Teil innerhalb von Unternehmen stattfindet, welche sich scheuen, die Ergebnisse in großem Umfang zu publizieren, da sie fürchten, die Konkurrenz könnte von solchen Veröffentlichungen profitieren. So finden sich etwa auch Vergleichszahlen über einzelne Suchmaschinen oft nur innerhalb von Vorträgen oder Präsentationen von Firmenvertretern (z.B. Singhal 2004; Dean 2004). Das Hauptaugenmerk dieses Artikels liegt auf der Frage, inwieweit Suchmaschinen in der Lage sind, die im Web vorhanden Inhalte zu indexieren, mit welchen Methoden sie dies tun und ob bzw. wie sie ihre Ziele erreichen. Ausgenommen bleiben damit explizit Fragen der Effizienz bei der Erschließung des Web und der Skalierbarkeit von Suchmaschinen. Anders formuliert: Diese Übersicht orientiert sich an klassisch informationswissenschaftlichen Fragen und spart die eher im Bereich der Informatik diskutierten Fragen weitgehend aus.
    Eine regelmäßige Übersicht neuer US-Patente und US-Patentanmeldungen im Bereich Information Retrieval bietet die News-Seite Resourceshelf (www.resourceshelf.com).
    Content
    Mit einer Tabelle, die eine Gegenüberstellung des WebRetrieval zum 'klassischen' Information Retrieval anbietet
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.5-12
  12. Place, E.: International collaboration on Internet subject gateways (2000) 0.01
    0.013858636 = product of:
      0.036956362 = sum of:
        0.010619472 = weight(_text_:information in 4584) [ClassicSimilarity], result of:
          0.010619472 = score(doc=4584,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.16796975 = fieldWeight in 4584, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.018204464 = weight(_text_:retrieval in 4584) [ClassicSimilarity], result of:
          0.018204464 = score(doc=4584,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.16710453 = fieldWeight in 4584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4584)
        0.00813243 = product of:
          0.024397288 = sum of:
            0.024397288 = weight(_text_:22 in 4584) [ClassicSimilarity], result of:
              0.024397288 = score(doc=4584,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.19345059 = fieldWeight in 4584, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4584)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Eine ganze Anzahl von Bibliotheken in Europa befaßt sich mit der Entwicklung von Internet Subject Gateways - einer Serviceleistung, die den Nutzern helfen soll, qualitativ hochwertige Internetquellen zu finden. Subject Gateways wie SOSIG (The Social Science Information Gateway) sind bereits seit einigen Jahren im Internet verfügbar und stellen eine Alternative zu Internet-Suchmaschinen wie AltaVista und Verzeichnissen wie Yahoo dar. Bezeichnenderweise stützen sich Subject Gateways auf die Fertigkeiten, Verfahrensweisen und Standards der internationalen Bibliothekswelt und wenden diese auf Informationen aus dem Internet an. Dieses Referat will daher betonen, daß Bibliothekare/innen idealerweise eine vorherrschende Rolle im Aufbau von Suchservices für Internetquellen spielen und daß Information Gateways eine Möglichkeit dafür darstellen. Es wird einige der Subject Gateway-Initiativen in Europa umreißen und die Werkzeuge und Technologien beschreiben, die vom Projekt DESIRE entwickelt wurden, um die Entwicklung neuer Gateways in anderen Ländern zu unterstützen. Es wird auch erörtert, wie IMesh, eine Gruppe für Gateways aus der ganzen Welt eine internationale Strategie für Gateways anstrebt und versucht, Standards zur Umsetzung dieses Projekts zu entwickeln
    Date
    22. 6.2002 19:35:35
    Theme
    Information Gateway
    Klassifikationssysteme im Online-Retrieval
  13. Röhle, T.: Machtkonzepte in der Suchmaschinenforschung (2007) 0.01
    0.01347788 = product of:
      0.035941012 = sum of:
        0.0061311545 = weight(_text_:information in 388) [ClassicSimilarity], result of:
          0.0061311545 = score(doc=388,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.09697737 = fieldWeight in 388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=388)
        0.018204464 = weight(_text_:retrieval in 388) [ClassicSimilarity], result of:
          0.018204464 = score(doc=388,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.16710453 = fieldWeight in 388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=388)
        0.011605391 = product of:
          0.034816172 = sum of:
            0.034816172 = weight(_text_:29 in 388) [ClassicSimilarity], result of:
              0.034816172 = score(doc=388,freq=4.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.2748193 = fieldWeight in 388, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=388)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Abstract
    Suchmaschinen und Macht - nicht nur in der Wissenschaft, sondern auch in der Presse werden diese Begriffe immer häufiger in einem Atemzug genannt. Angesichts Googles Dominanz des Suchmaschinenmarkts mehren sich Bedenken über Monopolbildung, Datenschutz, Zensur und Manipulation, die sich in Artikeln mit so illustrativen Überschriften wie »Der Datenkrake«, »Das Imperium« oder »The Evil Thing« äußern. Die Verbindung zwischen Suchmaschinen und Macht erschließt sich intuitiv ohne Weiteres: »Sie lenken die Aufmerksamkeit der Nutzer und haben damit Macht«. Die Frage aber, wie sich diese Macht genauer konzeptualisieren und verorten lässt und inwiefern frühere Vorstellungen von Medienmacht und Medieneffekten in diesem neuen Feld relevant sind, ist in der Suchmaschinenforschung bisher nur sehr schematisch beantwortet worden. Ein grundlegendes Problem ist darin zu sehen, dass Suchmaschinen eine in vielen Aspekten neue und machttheoretisch ungeklärte Nutzungssituation schaffen. Technikhistorisch lassen sich Suchmaschinen zwar eindeutig als Nachfolger früherer Information-Retrieval-Systeme einordnen. Da diese jedoch hauptsächlich von kompetenten Nutzern für spezifische Recherchen in homogenen und vollständigen Datenbeständen eingesetzt wurden, kam der Frage der Macht hier keine größere Bedeutung zu. Völlig anders stellt sich die Situation bei den Suchmaschinen dar: Als integraler Bestandteil der Internetnutzung betreffen ihre Relevanzkriterien einen wesentlich größeren Kreis von Nutzern, die mit sehr unterschiedlichen Motivationen eine Auswahl des Datenbestands durchsuchen.
    Date
    13. 5.2007 10:29:29
  14. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.01
    0.012203202 = product of:
      0.03254187 = sum of:
        0.0061311545 = weight(_text_:information in 4) [ClassicSimilarity], result of:
          0.0061311545 = score(doc=4,freq=2.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.09697737 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.018204464 = weight(_text_:retrieval in 4) [ClassicSimilarity], result of:
          0.018204464 = score(doc=4,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.16710453 = fieldWeight in 4, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4)
        0.008206251 = product of:
          0.024618752 = sum of:
            0.024618752 = weight(_text_:29 in 4) [ClassicSimilarity], result of:
              0.024618752 = score(doc=4,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.19432661 = fieldWeight in 4, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4)
          0.33333334 = coord(1/3)
      0.375 = coord(3/8)
    
    Date
    31.12.1996 19:29:41
    Source
    Advances in mathematical/formal methods in information retrieval. 8(2005) no.2 , S.219-243
  15. Mostafa, J.: Bessere Suchmaschinen für das Web (2006) 0.01
    0.011016084 = product of:
      0.029376224 = sum of:
        0.0060072797 = weight(_text_:information in 4871) [ClassicSimilarity], result of:
          0.0060072797 = score(doc=4871,freq=12.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.09501803 = fieldWeight in 4871, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.010298 = weight(_text_:retrieval in 4871) [ClassicSimilarity], result of:
          0.010298 = score(doc=4871,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.09452859 = fieldWeight in 4871, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.015625 = fieldNorm(doc=4871)
        0.013070944 = product of:
          0.019606415 = sum of:
            0.0098475 = weight(_text_:29 in 4871) [ClassicSimilarity], result of:
              0.0098475 = score(doc=4871,freq=2.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.07773064 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
            0.009758915 = weight(_text_:22 in 4871) [ClassicSimilarity], result of:
              0.009758915 = score(doc=4871,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.07738023 = fieldWeight in 4871, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4871)
          0.6666667 = coord(2/3)
      0.375 = coord(3/8)
    
    Content
    "Seit wenigen Jahren haben Suchmaschinen die Recherche im Internet revolutioniert. Statt in Büchereien zu gehen, um dort mühsam etwas nachzuschlagen, erhalten wir die gewünschten Dokumente heute mit ein paar Tastaturanschlägen und Mausklicks. »Googeln«, nach dem Namen der weltweit dominierenden Suchmaschine, ist zum Synonym für die Online-Recherche geworden. Künftig werden verbesserte Suchmaschinen die gewünschten Informationen sogar noch zielsicherer aufspüren. Die neuen Programme dringen dazu tiefer in die Online-Materie ein. Sie sortieren und präsentieren ihre Ergebnisse besser, und zur Optimierung der Suche merken sie sich die persönlichen Präferenzen der Nutzer, die sie in vorherigen Anfragen ermittelt haben. Zudem erweitern sie den inhaltlichen Horizont, da sie mehr leisten, als nur eingetippte Schlüsselwörter zu verarbeiten. Einige der neuen Systeme berücksichtigen automatisch, an welchem Ort die Anfrage gestellt wurde. Dadurch kann beispielsweise ein PDA (Personal Digital Assistant) über seine Funknetzverbindung das nächstgelegene Restaurant ausfindig machen. Auch Bilder spüren die neuen Suchmaschinen besser auf, indem sie Vorlagen mit ähnlichen, bereits abgespeicherten Mustern vergleichen. Sie können sogar den Namen eines Musikstücks herausfinden, wenn man ihnen nur ein paar Takte daraus vorsummt. Heutige Suchmaschinen basieren auf den Erkenntnissen aus dem Bereich des information retrieval (Wiederfinden von Information), mit dem sich Computerwissenschaftler schon seit über 50 Jahren befassen. Bereits 1966 schrieb Ben Ami Lipetz im Scientific American einen Artikel über das »Speichern und Wiederfinden von Information«. Damalige Systeme konnten freilich nur einfache Routine- und Büroanfragen bewältigen. Lipetz zog den hellsichtigen Schluss, dass größere Durchbrüche im information retrieval erst dann erreichbar sind, wenn Forscher die Informationsverarbeitung im menschlichen Gehirn besser verstanden haben und diese Erkenntnisse auf Computer übertragen. Zwar können Computer dabei auch heute noch nicht mit Menschen mithalten, aber sie berücksichtigen bereits weit besser die persönlichen Interessen, Gewohnheiten und Bedürfnisse ihrer Nutzer. Bevor wir uns neuen Entwicklungen bei den Suchmaschinen zuwenden, ist es hilfreich, sich ein Bild davon zu machen, wie die bisherigen funktionieren: Was genau ist passiert, wenn »Google« auf dem Bildschirm meldet, es habe in 0,32 Sekunden einige Milliarden Dokumente durchsucht? Es würde wesentlich länger dauern, wenn dabei die Schlüsselwörter der Anfrage nacheinander mit den Inhalten all dieser Webseiten verglichen werden müssten. Um lange Suchzeiten zu vermeiden, führen die Suchmaschinen viele ihrer Kernoperationen bereits lange vor dem Zeitpunkt der Nutzeranfrage aus.
    Viele digitale Inhalte können mit Suchmaschinen nicht erschlossen werden, weil die Systeme, die diese verwalten, Webseiten auf andere Weise speichern, als die Nutzer sie betrachten. Erst durch die Anfrage des Nutzers entsteht die jeweils aktuelle Webseite. Die typischen Webtrawler sind von solchen Seiten überfordert und können deren Inhalte nicht erschließen. Dadurch bleibt ein Großteil der Information - schätzungsweise 500-mal so viel wie das, was das konventionelle Web umfasst - für Anwender verborgen. Doch nun laufen Bemühungen, auch dieses »versteckte Web« ähnlich leicht durchsuchbar zu machen wie seinen bisher zugänglichen Teil. Zu diesem Zweck haben Programmierer eine neuartige Software entwickelt, so genannte Wrapper. Sie macht sich zu Nutze, dass online verfügbare Information standardisierte grammatikalische Strukturen enthält. Wrapper erledigen ihre Arbeit auf vielerlei Weise. Einige nutzen die gewöhnliche Syntax von Suchanfragen und die Standardformate der Online-Quellen, um auf versteckte Inhalte zuzugreifen. Andere verwenden so genannte ApplikationsprogrammSchnittstellen (APIs), die Software in die Lage versetzen, standardisierte Operationen und Befehle auszuführen. Ein Beispiel für ein Programm, das auf versteckte Netzinhalte zugreifen kann, ist der von BrightPlanet entwickelte »Deep Query Manager«. Dieser wrapperbasierte Anfragemanager stellt Portale und Suchmasken für mehr als 70 000 versteckte Webquellen bereit. Wenn ein System zur Erzeugung der Rangfolge Links oder Wörter nutzt, ohne dabei zu berücksichtigen, welche Seitentypen miteinander verglichen werden, besteht die Gefahr des Spoofing: Spaßvögel oder Übeltäter richten Webseiten mit geschickt gewählten Wörtern gezielt ein, um das Rangberechnungssystem in die Irre zu führen. Noch heute liefert die Anfrage nach »miserable failure« (»klägliches Versagen«) an erster Stelle eine offizielle Webseite des Weißen Hauses mit der Biografie von Präsident Bush.
    Date
    31.12.1996 19:29:41
    22. 1.2006 18:34:49
  16. Mandl, T.: Qualität als neue Dimension im Information Retrieval : Das AQUAINT Projekt (2005) 0.01
    0.010909341 = product of:
      0.043637365 = sum of:
        0.012743366 = weight(_text_:information in 3184) [ClassicSimilarity], result of:
          0.012743366 = score(doc=3184,freq=6.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.20156369 = fieldWeight in 3184, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
        0.030894 = weight(_text_:retrieval in 3184) [ClassicSimilarity], result of:
          0.030894 = score(doc=3184,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.2835858 = fieldWeight in 3184, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3184)
      0.25 = coord(2/8)
    
    Content
    Mit einer Abbildung zu Qualitätsmodellen im Information Retrieval Prozess
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.13-20
  17. Schröter, H.G.: Microsoft lockt mit Rabatt : Neuer Dienst für Suchmaschinen-Nutzer / Google baut Führung aus (2008) 0.01
    0.010903026 = product of:
      0.08722421 = sum of:
        0.08722421 = weight(_text_:modell in 1876) [ClassicSimilarity], result of:
          0.08722421 = score(doc=1876,freq=6.0), product of:
            0.21656582 = queryWeight, product of:
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.036014426 = queryNorm
            0.40276074 = fieldWeight in 1876, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0133076 = idf(docFreq=293, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1876)
      0.125 = coord(1/8)
    
    Content
    "Google hat den Abstand zu den konkurrierenden Suchmaschinen im Web in den USA noch vergrößert. Der Marktanteil des Internet-Giganten an den Suchanfragen sei im April auf 61,6 Prozent von 59,8 Prozent im Vormonat gestiegen, berichtete die Marktforschungsfirma Comscore. Der Anteil von Yahoo sei dagegen von 21,3 auf 20,4 Prozent und der von Microsoft auf 9,1 von 9,4 Prozent gesunken. AOL und Ask Network folgen abgeschlagen mit 4,6 und 4,3 Prozent. Microsoft versucht seit langem immer wieder, den Abstand zu Google zu verringern. Denn die Beliebtheit der Suchmaschine spielt eine wichtige Rolle für das lukrative Geschäft mit Online-Werbung. Jetzt startet der Software-Riese mit dem "Live Search Cashback" getauften Programm einen neuen Versuch. Er will Nutzern seiner Suchmaschine einen Rabatt auf Kameras, Uhren, Sportschuhe und viele andere Produkte von Anzeigenkunden gewähren. Wer sich registriert hat und auf der Suchmaschine Windows Live Search besonders markierte Artikel bestimmter Händler findet und online erwirbt, bekommt 60 Tage nach dem Kauf Geld zurück. Die Rabatte sollen von zwei bis 30 Prozent reichen. Dabei arbeitet Microsoft nach eigenen Angaben mit mehr als 700 Partnerfirmen zusammen. Zu ihnen zählen unter anderem Ebay, der Buchhändler Barnes & Noble und Sears. Diese sollen für ihre bei Microsoft geschalteten Anzeigen nur dann eine Gebühr zahlen, wenn ein Kunde über das Cashback-Programm einen Kauf abschließt. Aus diesen Gebühren werden die Rabatte an die Kunden finanziert. Anders als bei diesem cost-per-action genannten Modell zahlen Unternehmen derzeit für jeden Klick der Internetnutzer auf ihre Anzeigen. Bei diesem Modell (cost-per-click) dominiert Google.
    "Wir glauben, dass die Suche Verbrauchern und Werbetreibenden weit mehr bieten kann als heute üblich ist", erklärte Microsoft-Mitgründer Bill Gates. Live Search Cashback werde Anzeigenkunden beim Online-Verkauf helfen und Konsumenten einen neuen Weg bieten, mehr aus ihren Dollars zu machen. "Wir wollen Ihre Treue gewinnen", erfahren Interessenten, die sich auf der US-Website über das Cashback-Programm schlau machen wollen. Ob Microsoft den neuen Dienst gegebenenfalls auch außerhalb der USA einführen wird, sei nicht entschieden, teilt der hiesige Ableger mit. Der große Abstand der Microsoft-Suche Live Search zum Marktführer Google war der Hauptgrund dafür, dass der weltweit größte Software-Konzern einen Übernahmevorschlag für Yahoo vorlegte. Die Nummer zwei am US-Suchmarkt befand das Angebot von zuletzt 47,5 Milliarden Dollar aber als zu niedrig. Microsoft zog die Offerte Anfang Mai zurück. Seither reißen die Spekulationen nicht ab, dass Microsoft es nun lediglich auf das Suchmaschinengeschäft von Yahoo und eine Minderheitsbeteiligung an dem Internet-Konzern abgesehen habe. Ob der neue Rabatt-Ansatz bei der Produktsuche Microsoft den erhofften Erfolg bescheren wird, ist noch nicht ausgemacht. Zwar hat der Konzern eine lange Liste von Händlern gewonnen, die mitmachen wollen. Doch fraglich bleibt, ob Preisnachlässe beim Online-Shopping verlockend genug sind, damit Internetnutzer massenhaft zu Live Search wechseln. Nicht ohne Grund liegt Google in der Gunst der Surfer weit vorn. An der überlegenen Technologie des Branchenführers ändert das Cashback-Programm nichts. Es könnte aber an Bedeutung gewinnen, wenn Microsoft die Yahoo-Suchmaschine schlucken würde. Und es könnte ein Versuch sein, dem Erzrivalen Google das Leben so schwer wie möglich zu machen, obwohl die Anzeigen-Einnahmen aus dem Cashback-Programm ja den Online-Käufern und nicht Microsoft zufließen sollen. Findet der Microsoft-Konzern nämlich genug Händler für sein Rabatt-Modell, dann könnte er Werbedollar von Google abziehen."
  18. Schüler, P.: Wertes Wissen : Knowledge Management vermeidet Datenfriedhöfe (2001) 0.01
    0.010534757 = product of:
      0.042139027 = sum of:
        0.029127141 = weight(_text_:retrieval in 6815) [ClassicSimilarity], result of:
          0.029127141 = score(doc=6815,freq=2.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.26736724 = fieldWeight in 6815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=6815)
        0.013011887 = product of:
          0.03903566 = sum of:
            0.03903566 = weight(_text_:22 in 6815) [ClassicSimilarity], result of:
              0.03903566 = score(doc=6815,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.30952093 = fieldWeight in 6815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6815)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    Wer ohne spezielle Vorkenntnisse schnell in einem Thema Fuß fassen will, ist auf intelligente Recherchierhilfen angewiesen. Gurus der künstlichen Intelligenz kennen schon langm Wege, die Datenwelt besser als mit Schlagwort-Suchmaschinen nach Inhalten zu durchforsten - nur in der Praxis war davon wenig zu sehen. Aktuelle Software zum Content-Retrieval will die scheinbare Utopie verwirklichen
    Date
    8.11.2001 19:58:22
  19. Hübener, M.: Suchmaschinenoptimierung kompakt : anwendungsorientierte Techniken für die Praxis (2009) 0.01
    0.010324729 = product of:
      0.041298915 = sum of:
        0.010404914 = weight(_text_:information in 3911) [ClassicSimilarity], result of:
          0.010404914 = score(doc=3911,freq=4.0), product of:
            0.06322253 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.036014426 = queryNorm
            0.16457605 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
        0.030894 = weight(_text_:retrieval in 3911) [ClassicSimilarity], result of:
          0.030894 = score(doc=3911,freq=4.0), product of:
            0.10894058 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.036014426 = queryNorm
            0.2835858 = fieldWeight in 3911, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=3911)
      0.25 = coord(2/8)
    
    RSWK
    Suchmaschine / Information-Retrieval-System / Optimierung
    Subject
    Suchmaschine / Information-Retrieval-System / Optimierung
  20. Sauer, D.: Alles schneller finden (2001) 0.01
    0.009868911 = product of:
      0.078951284 = sum of:
        0.078951284 = product of:
          0.11842692 = sum of:
            0.069632344 = weight(_text_:29 in 6835) [ClassicSimilarity], result of:
              0.069632344 = score(doc=6835,freq=4.0), product of:
                0.1266875 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.036014426 = queryNorm
                0.5496386 = fieldWeight in 6835, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
            0.048794575 = weight(_text_:22 in 6835) [ClassicSimilarity], result of:
              0.048794575 = score(doc=6835,freq=2.0), product of:
                0.12611638 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036014426 = queryNorm
                0.38690117 = fieldWeight in 6835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6835)
          0.6666667 = coord(2/3)
      0.125 = coord(1/8)
    
    Date
    1. 8.1997 14:03:29
    11.11.2001 17:25:22
    Source
    Com!online. 2001, H.12, S.24-29

Types

  • a 152
  • m 13
  • el 6
  • x 6
  • s 2
  • More… Less…