Search (3 results, page 1 of 1)

  • × author_ss:"Machill, M."
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Machill, M.; Beiler, M.; Neumann, U.: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. : ein Experiment am Beispiel von Google Scholar (2007) 0.02
    0.018537706 = product of:
      0.09268853 = sum of:
        0.09268853 = weight(_text_:netz in 389) [ClassicSimilarity], result of:
          0.09268853 = score(doc=389,freq=2.0), product of:
            0.26690623 = queryWeight, product of:
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.050950415 = queryNorm
            0.34727 = fieldWeight in 389, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.046875 = fieldNorm(doc=389)
      0.2 = coord(1/5)
    
    Abstract
    Das Internet wurde schon seit seinen ersten Anfängen 1969 wissenschaftlich genutzt und war bis zu seiner Kommerzialisierung Mitte der 1990er-Jahre ein akademisch geprägtes Netz. In Deutschland informieren sich 42 Prozent der Nutzer im Internet häufig oder gelegentlich über Wissenschaft, Forschung und Bildung. Damit stehen wissenschaftliche Informationen gleich hinter aktuellen Nachrichten (45%) an zweiter Stelle der meistgenutzten Internetinhalte. Das World Wide Web ist heute ein riesiges, schnell wachsendes und den Globus umspannendes Informationsreservoir. Verschiedene Studien schätzen das Oberflächen-Web auf bis zu über elf Milliarden Seiten. Für wissenschaftliche Recherchen ist vor allem das 550 Milliarden Seiten umfassende Deep Web interessant, da es zahlreiche qualitativ hochwertige Fachtexte enthält. Das Deep Web ist jedoch schwer zugänglich, da es aus dynamisch aus Datenbanken generierten und zugangsbeschränkten oder kostenpflichtigen Informationen besteht. Die meisten herkömmlichen, allgemeinen Internet-Suchmaschinen haben auf diese Inhalte keinen Zugriff und können diese nicht indexieren; für Nutzer sind sie somit nicht auffindbar. Daher sind gesonderte Suchmaschinen zur gezielten Vermittlung und Selektion von akademischen Informationen notwendig.
  2. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.02
    0.017477518 = product of:
      0.087387584 = sum of:
        0.087387584 = weight(_text_:netz in 4093) [ClassicSimilarity], result of:
          0.087387584 = score(doc=4093,freq=4.0), product of:
            0.26690623 = queryWeight, product of:
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.050950415 = queryNorm
            0.3274093 = fieldWeight in 4093, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.03125 = fieldNorm(doc=4093)
      0.2 = coord(1/5)
    
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp
  3. Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005) 0.02
    0.015448088 = product of:
      0.07724044 = sum of:
        0.07724044 = weight(_text_:netz in 3490) [ClassicSimilarity], result of:
          0.07724044 = score(doc=3490,freq=2.0), product of:
            0.26690623 = queryWeight, product of:
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.050950415 = queryNorm
            0.28939167 = fieldWeight in 3490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2385488 = idf(docFreq=637, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3490)
      0.2 = coord(1/5)
    
    Abstract
    Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.