Search (201 results, page 1 of 11)

  • × theme_ss:"Suchmaschinen"
  1. Baeza-Yates, R.; Boldi, P.; Castillo, C.: Generalizing PageRank : damping functions for linkbased ranking algorithms (2006) 0.08
    0.07764765 = product of:
      0.19411913 = sum of:
        0.15964633 = weight(_text_:link in 2565) [ClassicSimilarity], result of:
          0.15964633 = score(doc=2565,freq=8.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.58874375 = fieldWeight in 2565, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2565)
        0.03447279 = weight(_text_:22 in 2565) [ClassicSimilarity], result of:
          0.03447279 = score(doc=2565,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.19345059 = fieldWeight in 2565, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2565)
      0.4 = coord(2/5)
    
    Abstract
    This paper introduces a family of link-based ranking algorithms that propagate page importance through links. In these algorithms there is a damping function that decreases with distance, so a direct link implies more endorsement than a link through a long path. PageRank is the most widely known ranking function of this family. The main objective of this paper is to determine whether this family of ranking techniques has some interest per se, and how different choices for the damping function impact on rank quality and on convergence speed. Even though our results suggest that PageRank can be approximated with other simpler forms of rankings that may be computed more efficiently, our focus is of more speculative nature, in that it aims at separating the kernel of PageRank, that is, link-based importance propagation, from the way propagation decays over paths. We focus on three damping functions, having linear, exponential, and hyperbolic decay on the lengths of the paths. The exponential decay corresponds to PageRank, and the other functions are new. Our presentation includes algorithms, analysis, comparisons and experiments that study their behavior under different parameters in real Web graph data. Among other results, we show how to calculate a linear approximation that induces a page ordering that is almost identical to PageRank's using a fixed small number of iterations; comparisons were performed using Kendall's tau on large domain datasets.
    Date
    16. 1.2016 10:22:28
  2. Conhaim, W.W.: Search tools (1996) 0.07
    0.073149405 = product of:
      0.18287352 = sum of:
        0.12771706 = weight(_text_:link in 4738) [ClassicSimilarity], result of:
          0.12771706 = score(doc=4738,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.47099498 = fieldWeight in 4738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0625 = fieldNorm(doc=4738)
        0.055156462 = weight(_text_:22 in 4738) [ClassicSimilarity], result of:
          0.055156462 = score(doc=4738,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.30952093 = fieldWeight in 4738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0625 = fieldNorm(doc=4738)
      0.4 = coord(2/5)
    
    Date
    1. 8.1996 22:39:31
    Source
    Link-up. 13(1996) no.1, S.5,40-41
  3. Li, L.; Shang, Y.; Zhang, W.: Improvement of HITS-based algorithms on Web documents 0.05
    0.04849373 = product of:
      0.24246866 = sum of:
        0.24246866 = weight(_text_:3a in 2514) [ClassicSimilarity], result of:
          0.24246866 = score(doc=2514,freq=2.0), product of:
            0.43142503 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.05088753 = queryNorm
            0.56201804 = fieldWeight in 2514, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2514)
      0.2 = coord(1/5)
    
    Content
    Vgl.: http%3A%2F%2Fdelab.csd.auth.gr%2F~dimitris%2Fcourses%2Fir_spring06%2Fpage_rank_computing%2Fp527-li.pdf. Vgl. auch: http://www2002.org/CDROM/refereed/643/.
  4. Golderman, G.M.; Connolly, B.: Between the book covers : going beyond OPAC keyword searching with the deep linking capabilities of Google Scholar and Google Book Search (2004/05) 0.05
    0.045718383 = product of:
      0.11429596 = sum of:
        0.079823166 = weight(_text_:link in 731) [ClassicSimilarity], result of:
          0.079823166 = score(doc=731,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=731)
        0.03447279 = weight(_text_:22 in 731) [ClassicSimilarity], result of:
          0.03447279 = score(doc=731,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.19345059 = fieldWeight in 731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=731)
      0.4 = coord(2/5)
    
    Abstract
    One finding of the 2006 OCLC study of College Students' Perceptions of Libraries and Information Resources was that students expressed equal levels of trust in libraries and search engines when it came to meeting their information needs in a way that they felt was authoritative. Seeking to incorporate this insight into our own instructional methodology, Schaffer Library at Union College has attempted to engineer a shift from Google to Google Scholar among our student users by representing Scholar as a viable adjunct to the catalog and to snore traditional electronic resources. By attempting to engage student researchers on their own terms, we have discovered that most of them react enthusiastically to the revelation that the Google they think they know so well is, it turns out, a multifaceted resource that is capable of delivering the sort of scholarly information that will meet with their professors' approval. Specifically, this article focuses on the fact that many Google Scholar searches link hack to our own Web catalog where they identify useful book titles that direct OPAC keyword searches have missed.
    Date
    2.12.2007 19:39:22
  5. Boldi, P.; Santini, M.; Vigna, S.: PageRank as a function of the damping factor (2005) 0.05
    0.045718383 = product of:
      0.11429596 = sum of:
        0.079823166 = weight(_text_:link in 2564) [ClassicSimilarity], result of:
          0.079823166 = score(doc=2564,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.29437187 = fieldWeight in 2564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2564)
        0.03447279 = weight(_text_:22 in 2564) [ClassicSimilarity], result of:
          0.03447279 = score(doc=2564,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.19345059 = fieldWeight in 2564, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2564)
      0.4 = coord(2/5)
    
    Abstract
    PageRank is defined as the stationary state of a Markov chain. The chain is obtained by perturbing the transition matrix induced by a web graph with a damping factor alpha that spreads uniformly part of the rank. The choice of alpha is eminently empirical, and in most cases the original suggestion alpha=0.85 by Brin and Page is still used. Recently, however, the behaviour of PageRank with respect to changes in alpha was discovered to be useful in link-spam detection. Moreover, an analytical justification of the value chosen for alpha is still missing. In this paper, we give the first mathematical analysis of PageRank when alpha changes. In particular, we show that, contrarily to popular belief, for real-world graphs values of alpha close to 1 do not give a more meaningful ranking. Then, we give closed-form formulae for PageRank derivatives of any order, and an extension of the Power Method that approximates them with convergence O(t**k*alpha**t) for the k-th derivative. Finally, we show a tight connection between iterated computation and analytical behaviour by proving that the k-th iteration of the Power Method gives exactly the PageRank value obtained using a Maclaurin polynomial of degree k. The latter result paves the way towards the application of analytical methods to the study of PageRank.
    Date
    16. 1.2016 10:22:28
  6. Naing, M.-M.; Lim, E.-P.; Chiang, R.H.L.: Extracting link chains of relationship instances from a Web site (2006) 0.04
    0.042837612 = product of:
      0.21418805 = sum of:
        0.21418805 = weight(_text_:link in 6111) [ClassicSimilarity], result of:
          0.21418805 = score(doc=6111,freq=10.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.78988266 = fieldWeight in 6111, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=6111)
      0.2 = coord(1/5)
    
    Abstract
    Web pages from a Web site can often be associated with concepts in an ontology, and pairs of Web pages also can be associated with relationships between concepts. With such associations, the Web site can be searched, browsed, or even reorganized based on the concept and relationship labels of its Web pages. In this article, we study the link chain extraction problem that is critical to the extraction of Web pages that are related. A link chain is an ordered list of anchor elements linking two Web pages related by some semantic relationship. We propose a link chain extraction method that derives extraction rules for identifying the anchor elements forming the link chains. We applied the proposed method to two well-structured Web sites and found that its performance in terms of precision and recall is good, even with a small number of training examples.
  7. English, W.: ¬A short primer in conducting searches (1998) 0.04
    0.03831512 = product of:
      0.1915756 = sum of:
        0.1915756 = weight(_text_:link in 1669) [ClassicSimilarity], result of:
          0.1915756 = score(doc=1669,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.7064925 = fieldWeight in 1669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.09375 = fieldNorm(doc=1669)
      0.2 = coord(1/5)
    
    Source
    Link-up. 15(1998) no.1, S.31
  8. Kohkemper, R.: Studenten-Charme im Big Business : 200 Millionen Anfragen pro Tag - die erfolgreichste Suchmaschine des Internet (2004) 0.04
    0.037401933 = product of:
      0.09350483 = sum of:
        0.06912889 = weight(_text_:link in 2324) [ClassicSimilarity], result of:
          0.06912889 = score(doc=2324,freq=6.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.25493354 = fieldWeight in 2324, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2324)
        0.024375942 = weight(_text_:22 in 2324) [ClassicSimilarity], result of:
          0.024375942 = score(doc=2324,freq=4.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.13679022 = fieldWeight in 2324, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2324)
      0.4 = coord(2/5)
    
    Content
    SUCHMETHODE PageRank Technologie nennen die Google-Gründer ihre Such-Methode. Nach der Eingabe eines Suchbegriffes werden die 3 Milliarden Webseiten, die Google erreichen kann, damit verglichen. Der Kern der Such-Methode ist dabei, dass Google einen Link von der Seite A zu Seite B als ein "Votum" von der Seite A zu Seite B wertet. Wer also auf seiner Webseite mit einem Link eine andere Seite empfiehlt bzw. darauf verweist, verändert den Stellenwert einer Seite in der Google-Liste. Allerdings verlässt sich Google nicht allein auf die Voten anderer Seiten. Mitarbeiter des Anbieters schätzen die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Ein Beispiel für die Manipulierbarkeit von Google: Wer im weltweiten Netz "miserable failure" ("erbärmlicher Versager") eingibt, landet bei der Biografie von George W. Bush. Zahlreiche Webmaster haben also einen Link zum Weißen Haus gesetzt und und mit dem Suchnamen "miserable failure" unterlegt.
    Date
    3. 5.1997 8:44:22
    13. 6.2004 14:34:22
  9. Herwig, C.: Stöbern im Datennetz : Die richtige Seite im Internet findet nur, wer seine Suchanfrage klug formuliert (2003) 0.04
    0.036574703 = product of:
      0.09143676 = sum of:
        0.06385853 = weight(_text_:link in 2440) [ClassicSimilarity], result of:
          0.06385853 = score(doc=2440,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.23549749 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.03125 = fieldNorm(doc=2440)
        0.027578231 = weight(_text_:22 in 2440) [ClassicSimilarity], result of:
          0.027578231 = score(doc=2440,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.15476047 = fieldWeight in 2440, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=2440)
      0.4 = coord(2/5)
    
    Content
    "Wer etwas sucht in den Weiten des Datennetzes und die genaue Adresse nicht kennt, der benutzt eine Suchmaschine. Ganz oben auf der Beliebtheitsskala steht dabei nach wie vor Google, für Deutschsprachige zu finden unter www.google.de. Gründe für die Popularität des zum Multi-MilliardenDollar-Unternehmen gewachsenen Studentenprojekts gibt es viele: Pragmatiker schwören einfach auf die guten Suchergebnisse, Freaks schätzen die "bells and whistles", das Drumherum, das die Suche komfortabel macht: - Für halbwegs Eindeutiges gelangt man kinderleicht ans Ziel: Die Suchbegriffe "Motor" und "Sport" fördern nur Dokumente zu Tage, die beide Stichworte enthalten. Ganz oben werden dabei die Seiten angezeigt, in denen beide Begriffe im Text direkt hintereinander stehen. Faustregel: Je mehr Begriffe Sie angeben, desto genauer sind hinterher die angezeigten Treffer. - Trickreicher wird es, wenn die Suchbegriffe nicht so eindeutig sind. Wer zum Beispiel etwas zu Hamlets berühmtester Textzeile sucht, sollte Anführungszeichen um den Suchbegriff verwenden: "Sein oder nicht sein" liefert nur die Dokumente, in denen die Begriffe exakt in dieser Schreibweise und Reihenfolge enthalten sind. Ergänzen Sie noch "hamlet" als zusätzlichen Suchbegriff (außerhalb der Anführungszeichen), werden die Seiten noch ergiebiger. - Sie erhalten völlig falsche Suchergebnisse, weil die Stichworte eine Doppelbedeutung haben? Ausschluss-Wörter sind die Lösung. Suchen Sie beispielsweise etwas zu Phaeton und denken dabei an das Automodell, aber sicher nicht an griechische Götter und Legenden? Verwenden Sie phaeton-auto-car-vw als Suche, um alle Seiten zu ignorieren, in denen es um dass falsche Thema geht; - Schwierig kann es auch werden, wenn Ihr Such-Stichwort dummerweise zu allgemein ist. Die Gerätebezeichnung is 380 (ein Kopfhörermodell) wird von Google nur mit der Meldung "'is' ist ein sehr häufiges Wort und wurde in der Suchanfrage ignoriert" quittiert. Abhilfe schafft die Suche mit "+is 380". - Sollen die Ergebnisse auf eine bestimmte Webseite oder Region begrenzt werden, kann ein weiterer Parameter helfen: "windows site:tippscout.de" liefert alle Seiten zum Thema Windows, aber eben nur von www.tippscout.de. Analog begrenzt "site:br" die Suche auf Seiten aus Brasilien, "-site:de" schließt deutsche Seiten von der Suche aus. - Sie interessieren sich fürs Grundgesetz, wollen aber keine seitenlangen Diskussionen, sondern nur das Dokument selbst lesen? Geben Sie den Dateityp an: "grundgesetz filetype:pdf° liefert das Gewünschte. Ebenso funktionieren natürlich doc, xls, jpg und andere Dateiarten. - Neben der Suchfunktion bietet Google noch etliche weitere Extras: Geben Sie doch einfach einmal Ihre Postleitzahl als Suchbegriff an. Google liefert den Link zu einem Stadtplan als Ergebnis.
    Date
    3. 5.1997 8:44:22
  10. Gillitzer, B.: Yewno (2017) 0.04
    0.036574703 = product of:
      0.09143676 = sum of:
        0.06385853 = weight(_text_:link in 3447) [ClassicSimilarity], result of:
          0.06385853 = score(doc=3447,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.23549749 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.027578231 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
          0.027578231 = score(doc=3447,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.15476047 = fieldWeight in 3447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
      0.4 = coord(2/5)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
  11. Lempel, R.; Moran, S.: SALSA: the stochastic approach for link-structure analysis (2001) 0.04
    0.035698008 = product of:
      0.17849004 = sum of:
        0.17849004 = weight(_text_:link in 10) [ClassicSimilarity], result of:
          0.17849004 = score(doc=10,freq=10.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.65823555 = fieldWeight in 10, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=10)
      0.2 = coord(1/5)
    
    Abstract
    Today, when searching for information on the WWW, one usually performs a query through a term-based search engine. These engines return, as the query's result, a list of Web pages whose contents matches the query. For broad-topic queries, such searches often result in a huge set of retrieved documents, many of which are irrelevant to the user. However, much information is contained in the link-structure of the WWW. Information such as which pages are linked to others can be used to augment search algorithms. In this context, Jon Kleinberg introduced the notion of two distinct types of Web pages: hubs and authorities. Kleinberg argued that hubs and authorities exhibit a mutually reinforcing relationship: a good hub will point to many authorities, and a good authority will be pointed at by many hubs. In light of this, he dervised an algoirthm aimed at finding authoritative pages. We present SALSA, a new stochastic approach for link-structure analysis, which examines random walks on graphs derived from the link-structure. We show that both SALSA and Kleinberg's Mutual Reinforcement approach employ the same metaalgorithm. We then prove that SALSA is quivalent to a weighted in degree analysis of the link-sturcutre of WWW subgraphs, making it computationally more efficient than the Mutual reinforcement approach. We compare that results of applying SALSA to the results derived through Kleinberg's approach. These comparisions reveal a topological Phenomenon called the TKC effectwhich, in certain cases, prevents the Mutual reinforcement approach from identifying meaningful authorities.
  12. Glogau, R.: Suchmaschine mit Köpfchen (1996) 0.03
    0.031929266 = product of:
      0.15964633 = sum of:
        0.15964633 = weight(_text_:link in 4835) [ClassicSimilarity], result of:
          0.15964633 = score(doc=4835,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.58874375 = fieldWeight in 4835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.078125 = fieldNorm(doc=4835)
      0.2 = coord(1/5)
    
    Abstract
    Der Begriff 'Volltextsuche im Web' klingt langweilig. Doch wer möchte nicht gerne wissen, welche WWW-Seiten ein Link auf die eigene Homepage enthalten. Was sich alles finden läßt, zeigt dieser Crashkurs anhand der schnellsten Suchmaschine im Web
  13. Fryxell, D.A.: ¬9 Web search sites examined (1996) 0.03
    0.031929266 = product of:
      0.15964633 = sum of:
        0.15964633 = weight(_text_:link in 5141) [ClassicSimilarity], result of:
          0.15964633 = score(doc=5141,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.58874375 = fieldWeight in 5141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.078125 = fieldNorm(doc=5141)
      0.2 = coord(1/5)
    
    Source
    Link-up. 13(1996) no.2, S.29-30
  14. Falk, H.: World Wide Web search and retrieval (1997) 0.03
    0.031929266 = product of:
      0.15964633 = sum of:
        0.15964633 = weight(_text_:link in 6815) [ClassicSimilarity], result of:
          0.15964633 = score(doc=6815,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.58874375 = fieldWeight in 6815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.078125 = fieldNorm(doc=6815)
      0.2 = coord(1/5)
    
    Abstract
    Lists and briefly describes the range of facilities available for searching the WWW, such as search engines, link-following packages and content delivery services. Includes web site information (URLs) with each product and service reviewed
  15. Snyder, H.; Rosenbaum, H.: Can search engines be used as tools for Web link analysis? : a critical view (1999) 0.03
    0.03160836 = product of:
      0.1580418 = sum of:
        0.1580418 = weight(_text_:link in 4608) [ClassicSimilarity], result of:
          0.1580418 = score(doc=4608,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.58282655 = fieldWeight in 4608, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4608)
      0.2 = coord(1/5)
    
    Abstract
    Investigates the problems of using commercial search engines for Web link research and attempts to clarify the nature of the problems involved in the use of these engines. The limitations which are inherent in commercial search engines should cause researchers to have reservations about any conclusions that rely on these tools as primary data gathering instruments. The shortcomings are market driven rather than inherent properties of the Web or of Web searching technologies. Improved functionalities are within the technical capabilities of search engine programmers and could be made available to the research community
  16. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.03
    0.027651558 = product of:
      0.13825779 = sum of:
        0.13825779 = weight(_text_:link in 868) [ClassicSimilarity], result of:
          0.13825779 = score(doc=868,freq=6.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.5098671 = fieldWeight in 868, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.2 = coord(1/5)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
  17. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.03
    0.027636891 = product of:
      0.06909223 = sum of:
        0.055303115 = weight(_text_:link in 3684) [ClassicSimilarity], result of:
          0.055303115 = score(doc=3684,freq=6.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.20394683 = fieldWeight in 3684, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
        0.0137891155 = weight(_text_:22 in 3684) [ClassicSimilarity], result of:
          0.0137891155 = score(doc=3684,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.07738023 = fieldWeight in 3684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.015625 = fieldNorm(doc=3684)
      0.4 = coord(2/5)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Date
    22. 6.2005 9:52:00
  18. Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004) 0.03
    0.02743103 = product of:
      0.06857757 = sum of:
        0.0478939 = weight(_text_:link in 2430) [ClassicSimilarity], result of:
          0.0478939 = score(doc=2430,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.17662312 = fieldWeight in 2430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
        0.020683672 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
          0.020683672 = score(doc=2430,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.116070345 = fieldWeight in 2430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2430)
      0.4 = coord(2/5)
    
    Content
    Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
    Date
    22. 7.2004 9:40:10
  19. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.03
    0.02743103 = product of:
      0.06857757 = sum of:
        0.0478939 = weight(_text_:link in 5177) [ClassicSimilarity], result of:
          0.0478939 = score(doc=5177,freq=2.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.17662312 = fieldWeight in 5177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
        0.020683672 = weight(_text_:22 in 5177) [ClassicSimilarity], result of:
          0.020683672 = score(doc=5177,freq=2.0), product of:
            0.17819946 = queryWeight, product of:
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.05088753 = queryNorm
            0.116070345 = fieldWeight in 5177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.5018296 = idf(docFreq=3622, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5177)
      0.4 = coord(2/5)
    
    Content
    Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
    Date
    3. 5.1997 8:44:22
  20. Google(TM) Scholar erleichtert institutionellen Zugang (2005) 0.03
    0.027092883 = product of:
      0.13546441 = sum of:
        0.13546441 = weight(_text_:link in 3973) [ClassicSimilarity], result of:
          0.13546441 = score(doc=3973,freq=4.0), product of:
            0.2711644 = queryWeight, product of:
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.05088753 = queryNorm
            0.49956563 = fieldWeight in 3973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3287 = idf(docFreq=582, maxDocs=44218)
              0.046875 = fieldNorm(doc=3973)
      0.2 = coord(1/5)
    
    Content
    "Seit Juni 2005 ermöglicht EBSCOs Linkresolver Link Source(TM) allen A-to-Z-Kunden ihre Online-Ressourcen über die Suchmaschine Google Scholar anzusteuern. So sind in akademischen Bibliotheken, die Google Scholar nutzen, Links auf Ebene der einzelnen Artikel für die laufenden Abonnements der Einrichtung eingerichtet. Diese Links führen zum Link Source Menu der Bibliothek, von wo aus der Nutzer direkten Zugriff auf den gewünschten Artikel hat. Der elektronische Volltext ist somit nur ein oder zwei Mausklicks von der Suchergebnisliste in Google Scholar entfernt. Durch die Kombiantion von Google mit Google(TM) Scholars Indexierung von Fachaufsätzen, Dissertationen, Büchern, Vorabdrucken, Abstracts und technischen Berichten erhalten Bibliotheken Gelegenheit, ihre Sammlungen besser nutzbar zu machen. EBSCO bietet diesen Service allen A-to-ZKunden, die einen OpenURL Linkresolver eines beliebigen Anbieters nutzen, ohne zusätzliche Kosten an."

Languages

  • d 107
  • e 92
  • f 1
  • nl 1
  • More… Less…

Types

  • a 176
  • el 14
  • m 9
  • x 4
  • p 2
  • r 2
  • s 1
  • More… Less…