Search (11 results, page 1 of 1)

  • × type_ss:"el"
  • × theme_ss:"Suchmaschinen"
  1. Lewandowski, D.: Wie "Next Generation Search Systems" die Suche auf eine neue Ebene heben und die Informationswelt verändern (2017) 0.01
    0.009727782 = product of:
      0.048638906 = sum of:
        0.048638906 = product of:
          0.09727781 = sum of:
            0.09727781 = weight(_text_:allgemein in 3611) [ClassicSimilarity], result of:
              0.09727781 = score(doc=3611,freq=2.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.46442303 = fieldWeight in 3611, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3611)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Theme
    Katalogfragen allgemein
  2. Eversberg, B.: Zur Zukunft der Katalogisierung : ... jenseits RAK und AACR (2004) 0.01
    0.00851181 = product of:
      0.042559046 = sum of:
        0.042559046 = product of:
          0.08511809 = sum of:
            0.08511809 = weight(_text_:allgemein in 3632) [ClassicSimilarity], result of:
              0.08511809 = score(doc=3632,freq=2.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.40637016 = fieldWeight in 3632, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3632)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Theme
    Katalogfragen allgemein
  3. Dunning, A.: Do we still need search engines? (1999) 0.01
    0.007561438 = product of:
      0.03780719 = sum of:
        0.03780719 = product of:
          0.07561438 = sum of:
            0.07561438 = weight(_text_:22 in 6021) [ClassicSimilarity], result of:
              0.07561438 = score(doc=6021,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.5416616 = fieldWeight in 6021, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=6021)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Source
    Ariadne. 1999, no.22
  4. Birmingham, J.: Internet search engines (1996) 0.01
    0.0064812326 = product of:
      0.032406162 = sum of:
        0.032406162 = product of:
          0.064812325 = sum of:
            0.064812325 = weight(_text_:22 in 5664) [ClassicSimilarity], result of:
              0.064812325 = score(doc=5664,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.46428138 = fieldWeight in 5664, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5664)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    10.11.1996 16:36:22
  5. Bensman, S.J.: Eugene Garfield, Francis Narin, and PageRank : the theoretical bases of the Google search engine (2013) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 1149) [ClassicSimilarity], result of:
              0.043208215 = score(doc=1149,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 1149, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1149)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    17.12.2013 11:02:22
  6. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.00
    0.0043208217 = product of:
      0.021604108 = sum of:
        0.021604108 = product of:
          0.043208215 = sum of:
            0.043208215 = weight(_text_:22 in 4996) [ClassicSimilarity], result of:
              0.043208215 = score(doc=4996,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.30952093 = fieldWeight in 4996, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4996)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    19. 2.2019 17:22:00
  7. Place, E.: Internationale Zusammenarbeit bei Internet Subject Gateways (1999) 0.00
    0.0032406163 = product of:
      0.016203081 = sum of:
        0.016203081 = product of:
          0.032406162 = sum of:
            0.032406162 = weight(_text_:22 in 4189) [ClassicSimilarity], result of:
              0.032406162 = score(doc=4189,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.23214069 = fieldWeight in 4189, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4189)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 6.2002 19:35:09
  8. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.00
    0.0030399316 = product of:
      0.015199658 = sum of:
        0.015199658 = product of:
          0.030399317 = sum of:
            0.030399317 = weight(_text_:allgemein in 1163) [ClassicSimilarity], result of:
              0.030399317 = score(doc=1163,freq=2.0), product of:
                0.2094595 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.03986404 = queryNorm
                0.1451322 = fieldWeight in 1163, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=1163)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
  9. Boldi, P.; Santini, M.; Vigna, S.: PageRank as a function of the damping factor (2005) 0.00
    0.0027005137 = product of:
      0.013502568 = sum of:
        0.013502568 = product of:
          0.027005136 = sum of:
            0.027005136 = weight(_text_:22 in 2564) [ClassicSimilarity], result of:
              0.027005136 = score(doc=2564,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.19345059 = fieldWeight in 2564, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2564)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    16. 1.2016 10:22:28
  10. Baeza-Yates, R.; Boldi, P.; Castillo, C.: Generalizing PageRank : damping functions for linkbased ranking algorithms (2006) 0.00
    0.0027005137 = product of:
      0.013502568 = sum of:
        0.013502568 = product of:
          0.027005136 = sum of:
            0.027005136 = weight(_text_:22 in 2565) [ClassicSimilarity], result of:
              0.027005136 = score(doc=2565,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.19345059 = fieldWeight in 2565, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2565)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    16. 1.2016 10:22:28
  11. Gillitzer, B.: Yewno (2017) 0.00
    0.0021604109 = product of:
      0.010802054 = sum of:
        0.010802054 = product of:
          0.021604108 = sum of:
            0.021604108 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.021604108 = score(doc=3447,freq=2.0), product of:
                0.13959707 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03986404 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.5 = coord(1/2)
      0.2 = coord(1/5)
    
    Date
    22. 2.2017 10:16:49