Search (29 results, page 1 of 2)

  • × author_ss:"Stock, W.G."
  1. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.03
    0.03297302 = product of:
      0.06594604 = sum of:
        0.06594604 = sum of:
          0.030652853 = weight(_text_:web in 5773) [ClassicSimilarity], result of:
            0.030652853 = score(doc=5773,freq=2.0), product of:
              0.17002425 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.052098576 = queryNorm
              0.18028519 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
          0.03529319 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
            0.03529319 = score(doc=5773,freq=2.0), product of:
              0.18244034 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.052098576 = queryNorm
              0.19345059 = fieldWeight in 5773, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=5773)
      0.5 = coord(1/2)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  2. Stock, W.G.: Wissenschaftsinformatik : Fundierung, Gegenstand und Methoden (1980) 0.03
    0.028234553 = product of:
      0.056469105 = sum of:
        0.056469105 = product of:
          0.11293821 = sum of:
            0.11293821 = weight(_text_:22 in 2808) [ClassicSimilarity], result of:
              0.11293821 = score(doc=2808,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.61904186 = fieldWeight in 2808, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2808)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Ratio. 22(1980), S.155-164
  3. Stock, W.G.: Informationsmangel trotz Überfluß : Informationsgesellschaft verlangt neue Berufe und Berufsbilder (1995) 0.03
    0.028234553 = product of:
      0.056469105 = sum of:
        0.056469105 = product of:
          0.11293821 = sum of:
            0.11293821 = weight(_text_:22 in 2027) [ClassicSimilarity], result of:
              0.11293821 = score(doc=2027,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.61904186 = fieldWeight in 2027, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=2027)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Insider. 1995, Nr.4, Juli, S.19-22
  4. Stock, M.; Stock, W.G.: Recherchieren im Internet (2004) 0.03
    0.028234553 = product of:
      0.056469105 = sum of:
        0.056469105 = product of:
          0.11293821 = sum of:
            0.11293821 = weight(_text_:22 in 4686) [ClassicSimilarity], result of:
              0.11293821 = score(doc=4686,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.61904186 = fieldWeight in 4686, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=4686)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    27.11.2005 18:04:22
  5. Stock, W.G.: Endnutzersystem für internationale Geschäftsinformationen (1998) 0.02
    0.024705233 = product of:
      0.049410466 = sum of:
        0.049410466 = product of:
          0.09882093 = sum of:
            0.09882093 = weight(_text_:22 in 2407) [ClassicSimilarity], result of:
              0.09882093 = score(doc=2407,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.5416616 = fieldWeight in 2407, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2407)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Password. 1998, H.10, S.22-28
  6. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches (2000) 0.02
    0.023989651 = product of:
      0.047979303 = sum of:
        0.047979303 = product of:
          0.095958605 = sum of:
            0.095958605 = weight(_text_:web in 5772) [ClassicSimilarity], result of:
              0.095958605 = score(doc=5772,freq=10.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.5643819 = fieldWeight in 5772, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5772)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Web Search Engines und Web Directories sind die technologische Speerspitze im High-Tech-Bereich Internet. Als Suchassistenten gestatten sie Laien und Profi-Searchern gleichsam einen optimalen Einstieg in die Vielfalt der Informationsquellen des World Wide Web, Sie ermöglichen durch eine Kombination aus hierarchisch geordnetem kontrollierten Vokabular, automatischer Indexierung sowie diverser Synonym-, Homonym- und Fachwörterbücher einen zielgenauen Zugriff auf WebSites. - Stop! Glauben Sie das? Wir waren skeptisch und haben Suchmaschinen und Suchverzeichnisse genau angeschaut. Durchgeführt wurde ein Retrievaltest, der unterschiedliche Suchsysteme mit jeweils dergleichen Anfrage konfrontierte, auf die wir bereits die Antwort wussten ("Known Item Search"). Skizziert werden zudem bisher ausgearbeitete empirische Erhebungen zur Evaluation von Web-Retrievalsystemen, angefangen von seriösen informationswissenschaftlichen Forschungen bis hinzu den Tests in Publikumszeitschriften
    Object
    Web-Crawler
  7. Stock, W.G.: ¬Ein Netz wissenschaftlicher Informationen : gesponnen aus Fußnoten (1999) 0.02
    0.01839171 = product of:
      0.03678342 = sum of:
        0.03678342 = product of:
          0.07356684 = sum of:
            0.07356684 = weight(_text_:web in 3890) [ClassicSimilarity], result of:
              0.07356684 = score(doc=3890,freq=8.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.43268442 = fieldWeight in 3890, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3890)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das ISI in Philadelphia bündelt seine großen Zitationsdatenbanken und bietet sie (vorzugsweise als Intranet-, aber auch als Internetlösung) als 'Web of Science'an. Im derzeitigen entwicklungsstand geht 'Web of Science' bis in die 70er Jahre zurück und weist damit knapp 20 Mill. Quellenartikel mit darin enthaltenen rund 300 Mill. Zitationen in einer einzigen datenbank nach. Neben 'gewohnten' Suchstrategien etwa nach Sachthemen oder Namen werden zitationsanalytische Suchstrategien geboten: Recherchen nach zitierter Literatur, nach zitierenden Artikeln und nach (im Sinne gemeinsamer Fußnoten) 'verwandten' Artikeln. Die Ausgabefunktionen umfassen Document Delivery via ISI sowie Links zu Artikeln, die parallel zur Druckausgabe im WWW erscheinen. Durch die Multidisziplinarität der ISI-Datenbanken sind als Kundenkreis vor allem Einrichtungen angesprochen, die mehrere Wissenschaftsfächer berühren. Hochschulbibliotheken oder Bibliotheken großer Forschungseinrichtungen dürften am 'Web of Science' kaum vorbeikommen. Parallele Produkte bei Online-Archiven, auf CD-ROM oder als Druckausgabe verlieren an Bedeutung
    Object
    Web of Science
  8. Stock, W.G.: Eugene Garfield und die Folgen : der Weg der Fußnote bis in die Wissenschaftspolitik (2002) 0.02
    0.01839171 = product of:
      0.03678342 = sum of:
        0.03678342 = product of:
          0.07356684 = sum of:
            0.07356684 = weight(_text_:web in 472) [ClassicSimilarity], result of:
              0.07356684 = score(doc=472,freq=2.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.43268442 = fieldWeight in 472, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.09375 = fieldNorm(doc=472)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Ein Besprechungsaufsatz zur Festschrift für E. Garfield: The Web of knowledge: Festschrift in honor of Eugene Garfield. Medford, NJ: Information Today 2000.
  9. Garfield, E.; Stock, W.G.: Citation Consciousness : Interview with Eugene Garfiels, chairman emeritus of ISI; Philadelphia (2002) 0.02
    0.017646596 = product of:
      0.03529319 = sum of:
        0.03529319 = product of:
          0.07058638 = sum of:
            0.07058638 = weight(_text_:22 in 613) [ClassicSimilarity], result of:
              0.07058638 = score(doc=613,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.38690117 = fieldWeight in 613, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=613)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Source
    Password. 2002, H.6, S.22-25
  10. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (III) : Informationslinguistik und -statistik: AltaVista, FAST und Northern Light (2001) 0.02
    0.017339872 = product of:
      0.034679744 = sum of:
        0.034679744 = product of:
          0.06935949 = sum of:
            0.06935949 = weight(_text_:web in 5578) [ClassicSimilarity], result of:
              0.06935949 = score(doc=5578,freq=4.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.4079388 = fieldWeight in 5578, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5578)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Suchmaschinen im World Wide Web arbeiten automatisch: Sie spüren Dokumente auf, indexieren sie, halten die Datenbank (mehr oder minder) aktuell und bieten den Kunden Retrievaloberflächen an. In unserem Known-Item-Retrievaltest (Password 11/2000) schnitten - in dieser Reihenfolge - Google, Alta Vista, Northern Light und FAST (All the Web) am besten ab. Die letzten drei Systeme arbeiten mit einer Kombination aus informationslinguistischen und informationsstatistischen Algorithmen, weshalb wir sie hier gemeinsam besprechen wollen. Im Zentrum unserer informationswissenschaftlichen Analysen stehen die "Highlights" der jeweiligen Suchwerkzeuge
  11. Stock, M.; Stock, W.G.: Online-Hosts für Wissenschaft, Technik und Medizin auf dem deutschen Informationsmarkt : Eine komparative Analyse (2005) 0.02
    0.017339872 = product of:
      0.034679744 = sum of:
        0.034679744 = product of:
          0.06935949 = sum of:
            0.06935949 = weight(_text_:web in 3335) [ClassicSimilarity], result of:
              0.06935949 = score(doc=3335,freq=4.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.4079388 = fieldWeight in 3335, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3335)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wir vergleichen die Content-Aggregatoren DataStar, DIALOG, DIMDI, FIZ Karlsruhe (STN International), FIZ Technik, Ovid, Questel-Orbit and Thomson Scientific's Web of Knowledge hinsichtlich ihrer Stellung auf dem Markt elektronischer Informationsdienste in Deutschland. Besprochen werden die Wettbewerbssituation sowie die Kooperationen, die Stärken bzw. Alleinstellungsmerkmale der Informationsanbieter und die kritischen Erfolgsfaktoren der WTMHosts. Marktführer ist in Deutschland eindeutig STN.
    Object
    Thomson Scientific's Web of Knowledge
  12. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.02
    0.015927691 = product of:
      0.031855382 = sum of:
        0.031855382 = product of:
          0.063710764 = sum of:
            0.063710764 = weight(_text_:web in 5771) [ClassicSimilarity], result of:
              0.063710764 = score(doc=5771,freq=6.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.37471575 = fieldWeight in 5771, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5771)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  13. Garfield, E.; Paris, S.W.; Stock, W.G.: HistCite(TM) : a software tool for informetric analysis of citation linkage (2006) 0.02
    0.015172388 = product of:
      0.030344777 = sum of:
        0.030344777 = product of:
          0.060689554 = sum of:
            0.060689554 = weight(_text_:web in 79) [ClassicSimilarity], result of:
              0.060689554 = score(doc=79,freq=4.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.35694647 = fieldWeight in 79, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=79)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    HistCite(TM) is a software tool for analyzing and visualizing direct citation linkages between scientific papers. Its inputs are bibliographic records (with cited references) from "Web of Knowledge" or other sources. Its outputs are various tables and graphs with informetric indicators about the knowledge domain under study. As an example we analyze informetrically the literature about Alexius Meinong, an Austrian philosopher and psychologist. The article shortly discusses the informetric functionality of "Web of Knowledge" and shows broadly the possibilities that HistCite offers to its users (e.g. scientists, scientometricans and science journalists).
  14. Linde, F.; Stock, W.G.: Informationsmarkt : Informationen im I-Commerce anbieten und nachfragen (2011) 0.01
    0.014117276 = product of:
      0.028234553 = sum of:
        0.028234553 = product of:
          0.056469105 = sum of:
            0.056469105 = weight(_text_:22 in 291) [ClassicSimilarity], result of:
              0.056469105 = score(doc=291,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.30952093 = fieldWeight in 291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=291)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    23. 9.2010 11:15:22
  15. Stock, W.G.: Concepts and semantic relations in information science (2010) 0.01
    0.013273074 = product of:
      0.026546149 = sum of:
        0.026546149 = product of:
          0.053092297 = sum of:
            0.053092297 = weight(_text_:web in 4008) [ClassicSimilarity], result of:
              0.053092297 = score(doc=4008,freq=6.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.3122631 = fieldWeight in 4008, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4008)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Concept-based information retrieval and knowledge representation are in need of a theory of concepts and semantic relations. Guidelines for the construction and maintenance of knowledge organization systems (KOS) (such as ANSI/NISO Z39.19-2005 in the U.S.A. or DIN 2331:1980 in Germany) do not consider results of concept theory and theory of relations to the full extent. They are not able to unify the currently different worlds of traditional controlled vocabularies, of the social web (tagging and folksonomies) and of the semantic web (ontologies). Concept definitions as well as semantic relations are based on epistemological theories (empiricism, rationalism, hermeneutics, pragmatism, and critical theory). A concept is determined via its intension and extension as well as by definition. We will meet the problem of vagueness by introducing prototypes. Some important definitions are concept explanations (after Aristotle) and the definition of family resemblances (in the sense of Wittgenstein). We will model concepts as frames (according to Barsalou). The most important paradigmatic relation in KOS is hierarchy, which must be arranged into different classes: Hyponymy consists of taxonomy and simple hyponymy, meronymy consists of many different part-whole-relations. For practical application purposes, the transitivity of the given relation is very important. Unspecific associative relations are of little help to our focused applications and should be replaced by generalizable and domain-specific relations. We will discuss the reflexivity, symmetry, and transitivity of paradigmatic relations as well as the appearance of specific semantic relations in the different kinds of KOS (folksonomies, nomenclatures, classification systems, thesauri, and ontologies). Finally, we will pick out KOS as a central theme of the Semantic Web.
  16. Schumann, L.; Stock, W.G.: ¬Ein umfassendes ganzheitliches Modell für Evaluation und Akzeptanzanalysen von Informationsdiensten : Das Information Service Evaluation (ISE) Modell (2014) 0.01
    0.0123526165 = product of:
      0.024705233 = sum of:
        0.024705233 = product of:
          0.049410466 = sum of:
            0.049410466 = weight(_text_:22 in 1492) [ClassicSimilarity], result of:
              0.049410466 = score(doc=1492,freq=2.0), product of:
                0.18244034 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.052098576 = queryNorm
                0.2708308 = fieldWeight in 1492, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1492)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 9.2014 18:56:46
  17. Stock, W.G.: On relevance distributions (2006) 0.01
    0.012261141 = product of:
      0.024522282 = sum of:
        0.024522282 = product of:
          0.049044564 = sum of:
            0.049044564 = weight(_text_:web in 5116) [ClassicSimilarity], result of:
              0.049044564 = score(doc=5116,freq=2.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.2884563 = fieldWeight in 5116, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5116)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    There are at least three possible ways that documents are distributed by relevance: informetric (power law), inverse logistic, and dichotomous. The nature of the type of distribution has implications for the construction of relevance ranking algorithms for search engines, for automated (blind) relevance feedback, for user behavior when using Web search engines, for combining of outputs of search engines for metasearch, for topic detection and tracking, and for the methodology of evaluation of information retrieval systems.
  18. Stock, W.G.: Informationswissenschaft interdisziplinär (2012) 0.01
    0.012261141 = product of:
      0.024522282 = sum of:
        0.024522282 = product of:
          0.049044564 = sum of:
            0.049044564 = weight(_text_:web in 559) [ClassicSimilarity], result of:
              0.049044564 = score(doc=559,freq=2.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.2884563 = fieldWeight in 559, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=559)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Einleitungsartikel zu einem Themenheft. Informationswissenschaft umfasst als Kerndisziplinen Information Retrieval, Wissensrepräsentation, Informetrie (einschließlich Web Science), Wissensmanagement und die Erforschung von Informations- bzw. Wissensgesellschaft und der Informationsmärkte (Stock & Stock, 2012). In vielen Forschungsprojekten befassen sich Informationswissenschaftler mit Themen, die auch von anderen Wissenschaftsdisziplinen bearbeitet werden. Informationswissenschaft ist also durchaus (auch) eine interdisziplinäre Angelegenheit. Dieses Themenheft von IWP stellt die Interdisziplinarität von Informationswissenschaft anhand von Beispielen der Forschungsergebnisse aus Düsseldorf in den Vordergrund.
  19. Heine, E.V.I.; Stock, W.G.; Oglou, Y.A.; Hackel, M.; Krasic, A.; Quack, S.; Rode, N.; Burghardt, S.; Manalodiparambil, M.; Röttger, M.; Schönhalz, D.; Valder, A.; Kühn, K.; Bachmaier, K.; Disli, S.; Punner, M.; Sabbagh, M.; Ströbele, U.; Bogen, C.; Rauter, J.; Schowe, K.; Steffen J.; Wiese, S.; Rohmen, S.; Wurzler, M.; Bülow, G.; Pudelko, F.; Roelvink, V.; Adjei-Kwarteng, C.; Jovanovic, M.; Kosmidou, M.; Hedwing, M.: Usability von Navigationssystemen im E-Commerce und bei informativen Websites - des Nutzers Odyssee (2003) 0.01
    0.01061846 = product of:
      0.02123692 = sum of:
        0.02123692 = product of:
          0.04247384 = sum of:
            0.04247384 = weight(_text_:web in 1966) [ClassicSimilarity], result of:
              0.04247384 = score(doc=1966,freq=6.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.24981049 = fieldWeight in 1966, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1966)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    ""Kein Grundstück der Welt ist so wertvoll wie eine Homepage", denn diese ist "zugleich das Gesicht, das ein Unternehmen der Welt zeigt" (Nielsen 1999). Die Homepage ist die erste Möglichkeit, die ein potenzieller Kunde oder gewünschter Lieferant wahrnimmt, um sich ein Bild über ein Unternehmen zu verschaffen "ehe sie sich auf ein Geschäft einlassen" (ebd.). Hier wird der Grundstein für zukünftige Geschäfte gelegt, unabhängig davon ob dies "nun online geschieht oder in der realen Welt" (ebd.). Die Website stellt demnach die erste Verbindung zu unterschiedlichsten Interessenten, Kunden und Lieferanten dar, wird somit zu einem Kommunikations- und Werbemedium. Deshalb ist es umso wichtiger, dass sich Benutzer auf sämtlichen Seiten einer Homepage zurecht finden, diese imstande ist, "die Bedürfnisse der Benutzer zu erfüllen" (ebd.), dass sie benutzerfähig und benutzerfreundlich ist. Diese Arbeit analysiert die Usability, d. h. die Benutzerfreundlichkeit und die Benutzbarkeit der deutschsprachigen Webauftritte der nachfolgenden Unternehmen bzw. Institutionen (nach Themenbereichen gegliedert), nicht nach künstlerischen, sondern nach funktionalen Kriterien: - Kataloge im E-Commerce: Otto (www.otto.de); Quelle (www.quelle.de); Amazon (www.amazon.de); eBay (www.eBay.de) - Informative Websites: HWWA (www.hwwa.de); Landtag NRW (www.landtag.nrw.de); Europäische Union (europa.eu.int); Kartoo Metasuchmaschine (www.kartoo.com). Von den unterschiedlichen Zielen der diversen Websites ausgehend wird untersucht, ob sich der alltägliche Web-Surfer, nachfolgend als "Otto Normalsurfer" gekennzeichnet, auf den einzelnen Webseiten zurecht findet, ob sein Informationsbedarf gedeckt und das Bedürfnis, sowohl nach allgemeiner als auch spezifischer Information befriedigt werden kann. Es geht demnach konkret um die Web-Zufriedenheit der Surfer, Mängel der Websites bezüglich Benutzerfreundlichkeit, des Designs und fehlende "Corporate Identity" aufzuzeigen und somit die Web-Usability der Websites zu vergleichen. Insbesondere das vergleichende Vorgehen im Anschluss an aufgabenbezogene Nutzertests sind wissenschaftliches Neuland."
  20. Stock, W.G.; Weber, S.: Facets of informetrics : Preface (2006) 0.01
    0.01061846 = product of:
      0.02123692 = sum of:
        0.02123692 = product of:
          0.04247384 = sum of:
            0.04247384 = weight(_text_:web in 76) [ClassicSimilarity], result of:
              0.04247384 = score(doc=76,freq=6.0), product of:
                0.17002425 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.052098576 = queryNorm
                0.24981049 = fieldWeight in 76, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=76)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    According to Jean M. Tague-Sutcliffe "informetrics" is "the study of the quantitative aspects of information in any form, not just records or bibliographies, and in any social group, not just scientists" (Tague-Sutcliffe, 1992, 1). Leo Egghe also defines "informetrics" in a very broad sense. "(W)e will use the term' informetrics' as the broad term comprising all-metrics studies related to information science, including bibliometrics (bibliographies, libraries,...), scientometrics (science policy, citation analysis, research evaluation,...), webometrics (metrics of the web, the Internet or other social networks such as citation or collaboration networks), ..." (Egghe, 2005b,1311). According to Concepcion S. Wilson "informetrics" is "the quantitative study of collections of moderatesized units of potentially informative text, directed to the scientific understanding of information processes at the social level" (Wilson, 1999, 211). We should add to Wilson's units of text also digital collections of images, videos, spoken documents and music. Dietmar Wolfram divides "informetrics" into two aspects, "system-based characteristics that arise from the documentary content of IR systems and how they are indexed, and usage-based characteristics that arise how users interact with system content and the system interfaces that provide access to the content" (Wolfram, 2003, 6). We would like to follow Tague-Sutcliffe, Egghe, Wilson and Wolfram (and others, for example Björneborn & Ingwersen, 2004) and call this broad research of empirical information science "informetrics". Informetrics includes therefore all quantitative studies in information science. If a scientist performs scientific investigations empirically, e.g. on information users' behavior, on scientific impact of academic journals, on the development of the patent application activity of a company, on links of Web pages, on the temporal distribution of blog postings discussing a given topic, on availability, recall and precision of retrieval systems, on usability of Web sites, and so on, he or she contributes to informetrics. We see three subject areas in information science in which such quantitative research takes place, - information users and information usage, - evaluation of information systems, - information itself, Following Wolfram's article, we divide his system-based characteristics into the "information itself "-category and the "information system"-category. Figure 1 is a simplistic graph of subjects and research areas of informetrics as an empirical information science.

Years

Languages

  • d 22
  • e 7

Types

  • a 22
  • m 7
  • r 1
  • More… Less…