Search (322 results, page 1 of 17)

  • × language_ss:"e"
  • × theme_ss:"Internet"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Rösch, H.: Entwicklungsstand und Qualitätsmanagement digitaler Auskunft in Bibliotheken (2007) 0.04
    0.043479174 = product of:
      0.08695835 = sum of:
        0.08219909 = weight(_text_:digitale in 400) [ClassicSimilarity], result of:
          0.08219909 = score(doc=400,freq=8.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 400, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.004759258 = weight(_text_:information in 400) [ClassicSimilarity], result of:
          0.004759258 = score(doc=400,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.0775819 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
      0.5 = coord(2/4)
    
    Content
    "Die Ursprünge digitaler Auskunft reichen zurück in die 1980er Jahre. Aus bescheidenen Anfängen hat sich inzwischen eine bibliothekarische Standarddienstleistung entwickelt. Mit dem digitalen Umbruch stellten die Bibliotheken zunächst ihre Kataloge im Web für die Recherche bereit und boten FAQs zur Beantwortung von Standardfragen an. Um den vollen Umfang bibliothekarischer Dienstleistungen im Internet präsentieren zu können, bedurfte es darüber hinaus der Entwicklung eines Äquivalents für die klassische Auskunft im WWW. Die Entwicklung von digitaler Auskunft drängte sich aber nicht nur aus diesem Grund auf; das Web veränderte (und verändert) zudem die Informationskultur der Kunden; diese erwarten schnelleren und einfacheren Service. Alles soll so unmittelbar und so unkompliziert recherchierbar sein, wie man es von Google, Yahoo und anderen gewohnt ist. Außerdem hat die bibliothekarische Auskunft mit "Yahoo Clever" oder "Lycos IQ" kommerzielle Konkurrenten erhalten. Digitale Auskunft musste also als Antwort auf die Herausforderungen der kommerziellen Konkurrenz und der veränderten Benutzergewohnheiten schnell entwickelt werden. Denn nur so konnte und kann rechtzeitig unter Beweis gestellt werden, dass Bibliotheken für viele Auskunftsfälle gegenüber Suchmaschinen und Webkatalogen einen ungeheueren Vorteil besitzen: Die klassische und damit auch die digitale Auskunft zielt nicht darauf, die Fragen zu beantworten, die Benutzer stellen, sondern (idealerweise) darauf, ihnen die Informationen zu verschaffen, die sie tatsächlich benötigen.
    Schon in der ersten Hälfte des 20. Jahrhunderts war in der Praxis des Auskunftsdienstes in den USA bekannt geworden, dass Benutzer häufig nicht nach dem fragen was sie eigentlich suchen, sondern meist allgemeine und nicht selten irreführende Fragen stellen. Dafür ist die Technik des Auskunftsinterviews entwickelt worden, um gemeinsam mit dem Kunden zu ermitteln, welche Informationen exakt gesucht werden. Während Suchmaschinen nur die syntaktische und (in Ausnahmefällen) die semantische Ebene der gestellten Frage abarbeiten können, vermag bibliothekarische Auskunft einer dritten, nämlich jener pragmatischen Dimension gerecht zu werden. Anders ausgedrückt: Suchmaschinen und andere Navigationsinstrumente des Internet arbeiten objektorientiert, digitale Auskunft durch bibliothekarische Experten hingegen erbringt subjekt- bzw. kundenorientierte Dienstleistungen. Bibliotheken mit elaborierter digitaler Auskunft sind den Herausforderungen der Informationsgesellschaft damit gewachsen: ja sie sind noch unverzichtbarer als zuvor. Speziell in Deutschland allerdings ist es nicht damit getan, digitale Auskunft mit Engagement zu entwickeln. Darüber hinaus müssen große Anstrengungen unternommen werden, um die Leistungsfähigkeit dieser bibliothekarischen Dienstleistung in das Bewusstsein der realen und potentiellen Kunden zu rücken."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.4, S.197-202
  2. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.03
    0.03020645 = product of:
      0.0604129 = sum of:
        0.057438362 = weight(_text_:digitale in 1418) [ClassicSimilarity], result of:
          0.057438362 = score(doc=1418,freq=10.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.31862092 = fieldWeight in 1418, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.0029745363 = weight(_text_:information in 1418) [ClassicSimilarity], result of:
          0.0029745363 = score(doc=1418,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.048488684 = fieldWeight in 1418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.5 = coord(2/4)
    
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  3. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.02
    0.020549772 = product of:
      0.08219909 = sum of:
        0.08219909 = weight(_text_:digitale in 2787) [ClassicSimilarity], result of:
          0.08219909 = score(doc=2787,freq=8.0), product of:
            0.18027179 = queryWeight, product of:
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.034944877 = queryNorm
            0.45597312 = fieldWeight in 2787, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.158747 = idf(docFreq=690, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.25 = coord(1/4)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  4. Kelton, K.; Fleischmann, K.R.; Wallace, W.A.: Trust in digital information (2008) 0.01
    0.006182458 = product of:
      0.024729831 = sum of:
        0.024729831 = weight(_text_:information in 1365) [ClassicSimilarity], result of:
          0.024729831 = score(doc=1365,freq=24.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.40312737 = fieldWeight in 1365, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1365)
      0.25 = coord(1/4)
    
    Abstract
    Trust in information is developing into a vitally important topic as the Internet becomes increasingly ubiquitous within society. Although many discussions of trust in this environment focus on issues like security, technical reliability, or e-commerce, few address the problem of trust in the information obtained from the Internet. The authors assert that there is a strong need for theoretical and empirical research on trust within the field of information science. As an initial step, the present study develops a model of trust in digital information by integrating the research on trust from the behavioral and social sciences with the research on information quality and human- computer interaction. The model positions trust as a key mediating variable between information quality and information usage, with important consequences for both the producers and consumers of digital information. The authors close by outlining important directions for future research on trust in information science and technology.
    Source
    Journal of the American Society for Information Science and Technology. 59(2008) no.3, S.363-374
    Theme
    Information
  5. Zhang, D.; Zambrowicz, C.; Zhou, H.; Roderer, N.K.: User information seeking behavior in a medical Web portal environment : a preliminary study (2004) 0.01
    0.0059192525 = product of:
      0.02367701 = sum of:
        0.02367701 = weight(_text_:information in 2261) [ClassicSimilarity], result of:
          0.02367701 = score(doc=2261,freq=22.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.38596505 = fieldWeight in 2261, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2261)
      0.25 = coord(1/4)
    
    Abstract
    The emergence of information portal systems in the past few years has led to a greatly enhanced Web-based environment for users seeking information online. While considerable research has been conducted an user information-seeking behavior in regular IR environments over the past decade, this paper focuses specifically an how users in a medical science and clinical setting carry out their daily information seeking through a customizable information portal system (MyWelch). We describe our initial study an analyzing Web usage data from MyWelch to see whether the results conform to the features and patterns established in current information-seeking models, present several observations regarding user information-seeking behavior in a portal environment, outline possible long-term user information-seeking patterns based an usage data, and discuss the direction of future research an user information-seeking behavior in the MyWelch portal environment.
    Source
    Journal of the American Society for Information Science and Technology. 55(2004) no.8, S.670-684
  6. Roussinov, D.; Chen, H.C.: Information navigation on the web by clustering and summarizing query results (2001) 0.01
    0.0058892816 = product of:
      0.023557127 = sum of:
        0.023557127 = weight(_text_:information in 14) [ClassicSimilarity], result of:
          0.023557127 = score(doc=14,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3840108 = fieldWeight in 14, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=14)
      0.25 = coord(1/4)
    
    Source
    Information processing and management. 37(2001) no.6, S.789-816
  7. Mußler, G.; Reiterer, H.; Mann, T.M.: INSYDER - Information Retrieval aspects of a business intelligence system (2000) 0.01
    0.005643786 = product of:
      0.022575144 = sum of:
        0.022575144 = weight(_text_:information in 5487) [ClassicSimilarity], result of:
          0.022575144 = score(doc=5487,freq=20.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.36800325 = fieldWeight in 5487, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5487)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag beschäftigt sich mit INSYDER, einem visuell unterstützten Suchsystem im Umfeld der sogenannten Business Intelligence Systeme. Dabei liegt der Schwerpunkt dieses Beitrags in der Erläuterung der Information Retrieval- und Visualisierungsaspekte zur Unterstützung des Suchprozesses im WWW. Vorgestellt wird das Rankingverfahren, das Interaktive Relevance Feedback sowie die Beschreibung der Unterstützung des Benutzers bei der Formulierung der Suchanfrage mittels Visualisierung.
    Content
    This paper presents a visual information seeking system for the WWW called INSYDER. The aim of INSYDER is to find business information from the WWW. Information seeking - especially on the Web - is an imprecise process. Information seekers often have only a fuzzy understanding of how they can get the information they want. This paper focuses on the use of information retrieval and visualisation techniques of the INSYDER system to support the user in extracting information from the WWW, namely in formulating queries, refining and reviewing results
    Theme
    Information Resources Management
  8. Cothey, V.: ¬A longitudinal study of World Wide Web users' information-searching behavior (2002) 0.01
    0.0055089183 = product of:
      0.022035673 = sum of:
        0.022035673 = weight(_text_:information in 245) [ClassicSimilarity], result of:
          0.022035673 = score(doc=245,freq=14.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3592092 = fieldWeight in 245, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=245)
      0.25 = coord(1/4)
    
    Abstract
    A study of the "real world" Web information searching behavior of 206 college students over a 10-month period showed that, contrary to expectations, the users adopted a more passive or browsing approach to Web information searching and became more eclectic in their selection of Web hosts as they gained experience. The study used a longitudinal transaction log analysis of the URLs accessed during 5,431 user days of Web information searching to detect changes in information searching behavior associated with increased experience of using the Web. The findings have implications for the design of future Web information retrieval tools
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.2, S.67-78
  9. Andricik, M.: Metasearch engine for Austrian research information (2002) 0.01
    0.0055089183 = product of:
      0.022035673 = sum of:
        0.022035673 = weight(_text_:information in 3600) [ClassicSimilarity], result of:
          0.022035673 = score(doc=3600,freq=14.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3592092 = fieldWeight in 3600, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3600)
      0.25 = coord(1/4)
    
    Abstract
    Majority of Austrian research relevant information available an the Web these days can be indexed by web full-text search engines. But there are still several sources of valuable information, which cannot be indexed directly. One of effective ways of getting this information to end-users is using metasearch technique. For better understanding it is important to say that metasearch engine does not use its own index. It collects search results provided by other search engines, and builds a common hit list for end users. Our prototype provides access to five sources of research relevant information available an the Austrian web.
    Source
    Gaining insight from research information (CRIS2002): Proceedings of the 6th International Conference an Current Research Information Systems, University of Kassel, August 29 - 31, 2002. Eds: W. Adamczak u. A. Nase
  10. Boyd, A.: Information disparity : research and measurement challenges in an interconnected world (2004) 0.01
    0.0055089183 = product of:
      0.022035673 = sum of:
        0.022035673 = weight(_text_:information in 665) [ClassicSimilarity], result of:
          0.022035673 = score(doc=665,freq=14.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3592092 = fieldWeight in 665, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=665)
      0.25 = coord(1/4)
    
    Abstract
    With the proliferation of new information channels such as the Web, e-mail and wireless, it is becoming increasingly important to understand the impact of these technologies within information-seeking and retrieval contexts. This issue of Aslib Proceedings presents research that begins to address the notion of "information disparity". It aims to weave a common thread between the challenges of reconciling disparate information needs in an environment complicated by fragmented or disparate data sources. This article lists several emerging trends that should begin to challenge traditional notions of our research field.
    Footnote
    Beitrag in einem Themenheft "Information disparity: research and measurement challenges"
    Theme
    Information
  11. Rieh, S.Y.: On the Web at home : information seeking and Web searching in the home environment (2004) 0.01
    0.0053541656 = product of:
      0.021416662 = sum of:
        0.021416662 = weight(_text_:information in 2246) [ClassicSimilarity], result of:
          0.021416662 = score(doc=2246,freq=18.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.34911853 = fieldWeight in 2246, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2246)
      0.25 = coord(1/4)
    
    Abstract
    As more people gain at-home access to the Internet, information seeking an the Web has become embedded in everyday life. The objective of this study was to characterize the home as an information use environment and to identify a range of information seeking and Websearch behaviors at home. Twelve Northern California residents were recruited, and the data were collected through semi-structured at-home interviews based an a self-reported Search Activities Diary that subjects kept over a 3-5 day period. The data were analyzed an four levels: home environment, information seeking goals, information retrieval interaction, and search query. Eindings indicated that the home, indeed, provided a distinct information use environment beyond physical setting alone in which the subjects used the Web for diverse purposes and interests. Based an the findings, the relationships among home environment, Web context, and interaction situation were identified with respect to user goals and information-seeking behaviors.
    Source
    Journal of the American Society for Information Science and Technology. 55(2004) no.8, S.743-753
  12. Cunliffe, D.; Jones, H.; Jarvis, M.; Egan, K.; Huws, R.; Munro, S,: Information architecture for bilingual Web sites (2002) 0.01
    0.0051002675 = product of:
      0.02040107 = sum of:
        0.02040107 = weight(_text_:information in 1014) [ClassicSimilarity], result of:
          0.02040107 = score(doc=1014,freq=12.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3325631 = fieldWeight in 1014, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1014)
      0.25 = coord(1/4)
    
    Abstract
    Creating an information architecture for a bilingual Web site presents particular challenges beyond those that exist for single and multilanguage sites. This article reports work in progress an the development of a contentbased bilingual Web site to facilitate the sharing of resources and information between Speech and Language Therapists. The development of the information architecture is based an a combination of two aspects: an abstract structural analysis of existing bilingual Web designs focusing an the presentation of bilingual material, and a bilingual card-sorting activity conducted with potential users. Issues for bilingual developments are discussed, and some observations are made regarding the use of card-sorting activities.
    Footnote
    Teil eines Themenschwerpunktes Information architecture
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.10, S.866-873
  13. Burke, L.: Designing a new urban Internet (2002) 0.01
    0.0050479556 = product of:
      0.020191822 = sum of:
        0.020191822 = weight(_text_:information in 3346) [ClassicSimilarity], result of:
          0.020191822 = score(doc=3346,freq=4.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3291521 = fieldWeight in 3346, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=3346)
      0.25 = coord(1/4)
    
    Footnote
    Teil eines Themenschwerpunktes Information architecture
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.10, S.863-865
  14. Fritch, J.W.; Cromwell, R.L.: Evaluating Internet resources : identity, affiliation, and cognitve authority in a networked world (2001) 0.01
    0.0050479556 = product of:
      0.020191822 = sum of:
        0.020191822 = weight(_text_:information in 5749) [ClassicSimilarity], result of:
          0.020191822 = score(doc=5749,freq=16.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3291521 = fieldWeight in 5749, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5749)
      0.25 = coord(1/4)
    
    Abstract
    Many people fail to properly evaluate Internet information. This is often due to a lack of understanding of the issues surrounding evaluation and authority, and, more specifically, a lack of understanding of the structure and modi operandi of the Internet and the Domain Name System. The fact that evaluation is not being properly performed on Internet information means both that questionable information is being used recklessly, without adequately assessing its authority, and good information is being disregarded, because trust in the information is lacking. Both scenarios may be resolved by ascribing proper amounts of cognitive authority to Internet information. Traditional measures of authority present in a print environment are lacking on the Internet, and, even when occasionally present, are of questionable veracity. A formal model and evaluative criteria are herein suggested and explained to provide a means for accurately ascribing cognitive authority in a networked environment; the model is unique in its representation of overt and covert affiliations as a mechanism for ascribing proper authority to Internet information
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.6, S.499-507
  15. Metzger, M.J.: Making sense of credibility on the Web : Models for evaluating online information and recommendations for future research (2007) 0.01
    0.0050479556 = product of:
      0.020191822 = sum of:
        0.020191822 = weight(_text_:information in 623) [ClassicSimilarity], result of:
          0.020191822 = score(doc=623,freq=16.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3291521 = fieldWeight in 623, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=623)
      0.25 = coord(1/4)
    
    Abstract
    This article summarizes much of what is known from the communication and information literacy fields about the skills that Internet users need to assess the credibility of online information. The article reviews current recommendations for credibility assessment, empirical research on how users determine the credibility of Internet information, and describes several cognitive models of online information evaluation. Based on the literature review and critique of existing models of credibility assessment, recommendations for future online credibility education and practice are provided to assist users in locating reliable information online. The article concludes by offering ideas for research and theory development on this topic in an effort to advance knowledge in the area of credibility assessment of Internet-based information.
    Source
    Journal of the American Society for Information Science and Technology. 58(2007) no.13, S.2078-2091
  16. Large, A.: Children, teenagers, and the Web (2004) 0.00
    0.004759258 = product of:
      0.019037032 = sum of:
        0.019037032 = weight(_text_:information in 4154) [ClassicSimilarity], result of:
          0.019037032 = score(doc=4154,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3103276 = fieldWeight in 4154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=4154)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 39(2005), S.347-394
  17. Zook, M.: ¬The geographies of the Internet (2006) 0.00
    0.004759258 = product of:
      0.019037032 = sum of:
        0.019037032 = weight(_text_:information in 4675) [ClassicSimilarity], result of:
          0.019037032 = score(doc=4675,freq=2.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3103276 = fieldWeight in 4675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.125 = fieldNorm(doc=4675)
      0.25 = coord(1/4)
    
    Source
    Annual review of information science and technology. 40(2006), S.xxx-xxx
  18. Lynch, V.A.: When documents deceive : trust and provenance as new factors for information retrieval in a tangled Web (2001) 0.00
    0.004759258 = product of:
      0.019037032 = sum of:
        0.019037032 = weight(_text_:information in 5193) [ClassicSimilarity], result of:
          0.019037032 = score(doc=5193,freq=8.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3103276 = fieldWeight in 5193, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5193)
      0.25 = coord(1/4)
    
    Abstract
    On the other hand, lack of trust motivates Lynch's observations. The Web world lacks social conventions for indexing markup, which permits struggles between those who would index the Web and those whose financial interest is in attracting the attention of the Web community. How trustworthy is Web information and how will that affect community?
    Footnote
    Beitrag eines Themenheftes: Still the Frontier: Information Science at the Millenium
    Source
    Journal of the American Society for Information Science and technology. 52(2001) no.1, S.12-17
  19. Wathen, C.N.; Burkell, J.: Believe it or not : factors influencing credibility on the Web (2002) 0.00
    0.0047219303 = product of:
      0.018887721 = sum of:
        0.018887721 = weight(_text_:information in 201) [ClassicSimilarity], result of:
          0.018887721 = score(doc=201,freq=14.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3078936 = fieldWeight in 201, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=201)
      0.25 = coord(1/4)
    
    Abstract
    This article reviews selected literature related to the credibility of information, including (1) the general markers of credibility, and how different source, message and receiver characteristics affect people's perceptions of information; (2) the impact of information medium on the assessment of credibility; and (3) the assessment of credibility in the context of information presented on the Internet. The objective of the literature review is to synthesize the current state of knowledge in this area, develop new ways to think about how people interact with information presented via the Internet, and suggest next steps for research and practical applications. The review examines empirical evidence, key reviews, and descriptive material related to credibility in general, and in terms of on-line media. A general discussion of credibility and persuasion and a description of recent work on the credibility and persuasiveness of computer-based applications is presented. Finally, the article synthesizes what we have learned from various fields, and proposes a model as a framework for much-needed future research in this area
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.2, S.134-144
    Theme
    Information
  20. Hargittai, E.: Beyond logs and surveys : in-depth measures of peoples's Web use skills (2002) 0.00
    0.0047219303 = product of:
      0.018887721 = sum of:
        0.018887721 = weight(_text_:information in 897) [ClassicSimilarity], result of:
          0.018887721 = score(doc=897,freq=14.0), product of:
            0.06134496 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.034944877 = queryNorm
            0.3078936 = fieldWeight in 897, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=897)
      0.25 = coord(1/4)
    
    Abstract
    Finding information an the Web can be a much more complex search process than previously experienced an many pre-Web information retrieval systems given that finding content online does not have to happen via a search algorithm typed into a search field. Rather, the Web allows for a myriad of search strategies. Although there are numerous studies of Web search techniques, these studies often limit their focus to just one part of the search process and are not based an the behavior of the general user population, nor do they include information about the users. To remedy these shortcomings, this project looks at how peopie find information online in the context of their other media use, their general Internet use patterns, in addition to using information about their demographic background and social support networks. This article describes the methodology in detail, and suggests that a mix of survey instruments and in-person observations can yield the type of rich data set that is necessary to understand in depth the differences in people's information retrieval behavior online.
    Source
    Journal of the American Society for Information Science and technology. 53(2002) no.14, S.1239-1244