Search (32 results, page 2 of 2)

  • × theme_ss:"Internet"
  • × type_ss:"x"
  1. Toussi, M.: Information Retrieval am Beispiel der Wide Area Information Server (WAIS) und dem World Wide Web (WWW) (1996) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 5965) [ClassicSimilarity], result of:
          0.034657344 = score(doc=5965,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5965)
      0.2 = coord(1/5)
    
  2. Koenig, B.: Möglichkeiten der Nutzung von Internet für die Öffentlichkeitsarbeit öffentlicher Bibliotheken (1996) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 7200) [ClassicSimilarity], result of:
          0.034657344 = score(doc=7200,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 7200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=7200)
      0.2 = coord(1/5)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  3. Pieper, D.: ¬Die Entwicklung des WWW-OPAC der Universitätsbibliothek Bielefeld im Rahmen des Projekts Internetbasiertes Bibliotheksinformationssystem (IBIS) (1997) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.034657344 = score(doc=781,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=781)
      0.2 = coord(1/5)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  4. Walz, S.: Liegen die zentralen Aufgaben der Bibliothekare im Informationsmanagement? : Das Beispiel Internet-'subject guides' für Bibliotheksbenutzer (1997) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 784) [ClassicSimilarity], result of:
          0.034657344 = score(doc=784,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=784)
      0.2 = coord(1/5)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  5. Fedder, T.: Internetseiten Öffentlicher Bibliotheken : eine kritische Analyse (1998) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 840) [ClassicSimilarity], result of:
          0.034657344 = score(doc=840,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=840)
      0.2 = coord(1/5)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  6. Glockner, M.: Semantik Web : Die nächste Generation des World Wide Web (2004) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 4532) [ClassicSimilarity], result of:
          0.034657344 = score(doc=4532,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4532)
      0.2 = coord(1/5)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  7. Meyer, J.: Rechtswissenschaftliche Fachinformation im Internet : Bereitstellung und Vermittlung (2002) 0.01
    0.006931469 = product of:
      0.034657344 = sum of:
        0.034657344 = weight(_text_:und in 4968) [ClassicSimilarity], result of:
          0.034657344 = score(doc=4968,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.34282678 = fieldWeight in 4968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4968)
      0.2 = coord(1/5)
    
  8. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.006262637 = product of:
      0.031313185 = sum of:
        0.031313185 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.031313185 = score(doc=1076,freq=20.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.2 = coord(1/5)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  9. Oehler, A.: Informationssuche im Internet : In welchem Ausmaß entsprechen existierende Suchwerkzeuge für das World Wide Web Anforderungen für die wissenschaftliche Suche (1998) 0.01
    0.006002828 = product of:
      0.030014139 = sum of:
        0.030014139 = weight(_text_:und in 826) [ClassicSimilarity], result of:
          0.030014139 = score(doc=826,freq=6.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.2968967 = fieldWeight in 826, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=826)
      0.2 = coord(1/5)
    
    Abstract
    Im Internet steht inzwischen eine enorme und ständig wachsende Menge von Dokumenten zur Verfügung. Es wird daher auch für wissenschaftliche Informationssuchende neben traditionellen Printveröffentlichungen zu einer wichtigen Informationsquelle. Im Gegensatz zur relativ geordneten Welt der gedruckten Publikationen ist es jedoch schwierig, gezielt Informationen im Internet zu finden. Ursachen dafür sind neben sehr unterschiedlicher Qualität und Zielsetzung auch Charakteristika von Internetdokumenten, wie z.B. die Darstellung als offener, verteilter Hypertext oder ihre leichte Veränderbarkeit. In der vorliegenden Arbeit wird untersucht, inwieweit die gegenwärtigen Suchdienste für das WWW Anforderungen an die wissenschaftliche Informationssuche entsprechen. Dazu wird ein Überblick über die Arbeitsweisen sowie generelle Stärken und Schwächen verschiedener Typen von Suchdiensten (roboterbasierte, manuell erstellt sowie simultane) gegeben
  10. Garbe, H.: ¬Das Projekt SSG-FI (Sondersammelgebiets-Fachinformation) der SUB Göttingen : Sacherschließung von ausgewählten Internet-Dokumenten (1999) 0.01
    0.0059412587 = product of:
      0.029706294 = sum of:
        0.029706294 = weight(_text_:und in 3812) [ClassicSimilarity], result of:
          0.029706294 = score(doc=3812,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.29385152 = fieldWeight in 3812, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=3812)
      0.2 = coord(1/5)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  11. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.00
    0.004951049 = product of:
      0.024755245 = sum of:
        0.024755245 = weight(_text_:und in 2231) [ClassicSimilarity], result of:
          0.024755245 = score(doc=2231,freq=8.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.24487628 = fieldWeight in 2231, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.2 = coord(1/5)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  12. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.00
    0.0039608395 = product of:
      0.019804196 = sum of:
        0.019804196 = weight(_text_:und in 4773) [ClassicSimilarity], result of:
          0.019804196 = score(doc=4773,freq=2.0), product of:
            0.10109287 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04561197 = queryNorm
            0.19590102 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.2 = coord(1/5)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt