Search (26 results, page 1 of 2)

  • × theme_ss:"Internet"
  • × type_ss:"x"
  1. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.03
    0.030898657 = product of:
      0.09269597 = sum of:
        0.06368741 = weight(_text_:einzelne in 973) [ClassicSimilarity], result of:
          0.06368741 = score(doc=973,freq=2.0), product of:
            0.24484263 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.04159925 = queryNorm
            0.26011568 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.029008562 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.029008562 = score(doc=973,freq=20.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3121784 = fieldWeight in 973, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
      0.33333334 = coord(2/6)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  2. Hoffmann, R.: Mailinglisten für den bibliothekarischen Informationsdienst am Beispiel von RABE (2000) 0.01
    0.014457195 = product of:
      0.043371584 = sum of:
        0.019459534 = weight(_text_:der in 4441) [ClassicSimilarity], result of:
          0.019459534 = score(doc=4441,freq=4.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.20941564 = fieldWeight in 4441, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4441)
        0.02391205 = product of:
          0.0478241 = sum of:
            0.0478241 = weight(_text_:22 in 4441) [ClassicSimilarity], result of:
              0.0478241 = score(doc=4441,freq=4.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.32829654 = fieldWeight in 4441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4441)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Welche qualitativen Verbesserungsmöglichkeiten bieten Mailinglisten für den bibliothekarischen Informationsdienst? Nach einem Überblick über Aufgaben und Formen bibliothekarischer Informationsdienstleistungen und einer Einführung in Mailinglisten für den Informationsdienst wird in dieser Arbeit exemplarisch die im Juli als deutschsprachigen Pendant zu Stumpers-L für Auskunftsbibliothekare gegründete Mailingliste 'RABE' (Recherche und Auskunft in bibliothekarischen Einrichtungen) beschrieben und analysiert. Dazu werden die Ergebnisse zweier empirischer Untersuchungen herangezogen: einer im März 1999 durchgeführten Umfrage unter den Listenmitgliedern und einer Auswertung der im WWW-Archiv von RABE bis Februar 1999 gespeicherten Listenbeiträge. Unter anderem wurde dabei die institutionelle und geographische Herkunft der Listenmitglieder, ihr Nutzungsverhalten (Aktivitätsprofile), ihre Erfahrungen mit RABE und die zur Beantwortung von Auskunftsfragen verwendeten Informationsquellen untersucht. Abschließend erfolgt eine Bewertung von RABE als Instrument im bibliothekarischen Informationsdienst
    Date
    22. 2.2000 10:25:05
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.22
  3. Rautenberg, M.: Konzeption eines Internetangebots für Kinder über Buchautoren und -autorinnen im Rahmen der europäischen virtuellen Kinderbibliothek CHILIAS (1997) 0.01
    0.013630373 = product of:
      0.04089112 = sum of:
        0.018346624 = weight(_text_:der in 1491) [ClassicSimilarity], result of:
          0.018346624 = score(doc=1491,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.19743896 = fieldWeight in 1491, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1491)
        0.022544496 = product of:
          0.04508899 = sum of:
            0.04508899 = weight(_text_:22 in 1491) [ClassicSimilarity], result of:
              0.04508899 = score(doc=1491,freq=2.0), product of:
                0.14567348 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04159925 = queryNorm
                0.30952093 = fieldWeight in 1491, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1491)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 7.1998 18:00:49
  4. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.01
    0.008963885 = product of:
      0.05378331 = sum of:
        0.05378331 = weight(_text_:der in 2231) [ClassicSimilarity], result of:
          0.05378331 = score(doc=2231,freq=44.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.57879424 = fieldWeight in 2231, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
  5. Fellermaier, B.: Virtuelle Bibliothek : Konzepte und Forschungsprojekte (1997) 0.01
    0.007644427 = product of:
      0.04586656 = sum of:
        0.04586656 = weight(_text_:der in 471) [ClassicSimilarity], result of:
          0.04586656 = score(doc=471,freq=8.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4935974 = fieldWeight in 471, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=471)
      0.16666667 = coord(1/6)
    
    Abstract
    Virtuelle Bibliotheken sind nicht länger ein Schlagwort, sondern nehmen in Folge des Potentials von Internet und WWW allmählich konkrete Formen an. Der Begriff virtuelle Bibliothek wird zu anderen Formen von netzwerkbasierten Informationsangeboten abgegrenzt. Vor dem Hintergrund der Schwächen traditioneller Bibliotheken und der Krise der Informationsversorgung werden die Vorteile von virtuellen Bibliotheken aufgezeigt
  6. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 4773) [ClassicSimilarity], result of:
          0.0410243 = score(doc=4773,freq=10.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 4773, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.16666667 = coord(1/6)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
  7. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.006837384 = product of:
      0.0410243 = sum of:
        0.0410243 = weight(_text_:der in 1076) [ClassicSimilarity], result of:
          0.0410243 = score(doc=1076,freq=40.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.44148692 = fieldWeight in 1076, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
  8. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.01
    0.006553731 = product of:
      0.039322384 = sum of:
        0.039322384 = weight(_text_:der in 1562) [ClassicSimilarity], result of:
          0.039322384 = score(doc=1562,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.4231716 = fieldWeight in 1562, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.16666667 = coord(1/6)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
  9. Riegger, M.R.: Konzeption und Realisierung eines WWW-Angebots der Deutschen Unesco-Kommission im Internet (1996) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 5960) [ClassicSimilarity], result of:
          0.03669325 = score(doc=5960,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 5960, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=5960)
      0.16666667 = coord(1/6)
    
  10. Strobel, G.: Konzeption und Realisierung eines WWW-Servers für den Studiengang Dokumentation der HBI Stuttgart (1995) 0.01
    0.006115542 = product of:
      0.03669325 = sum of:
        0.03669325 = weight(_text_:der in 5964) [ClassicSimilarity], result of:
          0.03669325 = score(doc=5964,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.3948779 = fieldWeight in 5964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=5964)
      0.16666667 = coord(1/6)
    
  11. Rüping, U.: Anwendung und Nutzung von Internet in ausgewählten Hochschulbibliotheken der Bundesrepublik Deutschland (1994) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 7471) [ClassicSimilarity], result of:
          0.032106593 = score(doc=7471,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 7471, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=7471)
      0.16666667 = coord(1/6)
    
  12. Schwab, U.: ¬Der Information-Highway und seine Bedeutung für das elektronische Publizieren in Zeitungs- und Zeitschriftenverlagen (1995) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 2772) [ClassicSimilarity], result of:
          0.032106593 = score(doc=2772,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 2772, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=2772)
      0.16666667 = coord(1/6)
    
  13. Franz, G.: Zugangswege im Internet : dargestellt an ausgewählten Beispielen des Faches 'Bibliothekswesen' (1995) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 3179) [ClassicSimilarity], result of:
          0.032106593 = score(doc=3179,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 3179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=3179)
      0.16666667 = coord(1/6)
    
    Abstract
    Darstellung der Hilfsmittel für die inhaltliche Suche nach Angeboten im Internet
  14. Toussi, M.: Information Retrieval am Beispiel der Wide Area Information Server (WAIS) und dem World Wide Web (WWW) (1996) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 5965) [ClassicSimilarity], result of:
          0.032106593 = score(doc=5965,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=5965)
      0.16666667 = coord(1/6)
    
  15. Koenig, B.: Möglichkeiten der Nutzung von Internet für die Öffentlichkeitsarbeit öffentlicher Bibliotheken (1996) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 7200) [ClassicSimilarity], result of:
          0.032106593 = score(doc=7200,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 7200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=7200)
      0.16666667 = coord(1/6)
    
  16. Pieper, D.: ¬Die Entwicklung des WWW-OPAC der Universitätsbibliothek Bielefeld im Rahmen des Projekts Internetbasiertes Bibliotheksinformationssystem (IBIS) (1997) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 781) [ClassicSimilarity], result of:
          0.032106593 = score(doc=781,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=781)
      0.16666667 = coord(1/6)
    
  17. Walz, S.: Liegen die zentralen Aufgaben der Bibliothekare im Informationsmanagement? : Das Beispiel Internet-'subject guides' für Bibliotheksbenutzer (1997) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 784) [ClassicSimilarity], result of:
          0.032106593 = score(doc=784,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=784)
      0.16666667 = coord(1/6)
    
  18. Salmon, F.: ¬Der Karlsruher virtuelle Katalog : Möglichkeiten und Grenzen (1998) 0.01
    0.005351099 = product of:
      0.032106593 = sum of:
        0.032106593 = weight(_text_:der in 1224) [ClassicSimilarity], result of:
          0.032106593 = score(doc=1224,freq=2.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.34551817 = fieldWeight in 1224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1224)
      0.16666667 = coord(1/6)
    
  19. Siever, C.M.: Multimodale Kommunikation im Social Web : Forschungsansätze und Analysen zu Text-Bild-Relationen (2015) 0.00
    0.0046812366 = product of:
      0.028087419 = sum of:
        0.028087419 = weight(_text_:der in 4056) [ClassicSimilarity], result of:
          0.028087419 = score(doc=4056,freq=12.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.30226544 = fieldWeight in 4056, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4056)
      0.16666667 = coord(1/6)
    
    Abstract
    Multimodalität ist ein typisches Merkmal der Kommunikation im Social Web. Der Fokus dieses Bandes liegt auf der Kommunikation in Foto-Communitys, insbesondere auf den beiden kommunikativen Praktiken des Social Taggings und des Verfassens von Notizen innerhalb von Bildern. Bei den Tags stehen semantische Text-Bild-Relationen im Vordergrund: Tags dienen der Wissensrepräsentation, eine adäquate Versprachlichung der Bilder ist folglich unabdingbar. Notizen-Bild-Relationen sind aus pragmatischer Perspektive von Interesse: Die Informationen eines Kommunikats werden komplementär auf Text und Bild verteilt, was sich in verschiedenen sprachlichen Phänomenen niederschlägt. Ein diachroner Vergleich mit der Postkartenkommunikation sowie ein Exkurs zur Kommunikation mit Emojis runden das Buch ab.
  20. Oehler, A.: Informationssuche im Internet : In welchem Ausmaß entsprechen existierende Suchwerkzeuge für das World Wide Web Anforderungen für die wissenschaftliche Suche (1998) 0.00
    0.004634188 = product of:
      0.027805127 = sum of:
        0.027805127 = weight(_text_:der in 826) [ClassicSimilarity], result of:
          0.027805127 = score(doc=826,freq=6.0), product of:
            0.09292302 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04159925 = queryNorm
            0.29922754 = fieldWeight in 826, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=826)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Internet steht inzwischen eine enorme und ständig wachsende Menge von Dokumenten zur Verfügung. Es wird daher auch für wissenschaftliche Informationssuchende neben traditionellen Printveröffentlichungen zu einer wichtigen Informationsquelle. Im Gegensatz zur relativ geordneten Welt der gedruckten Publikationen ist es jedoch schwierig, gezielt Informationen im Internet zu finden. Ursachen dafür sind neben sehr unterschiedlicher Qualität und Zielsetzung auch Charakteristika von Internetdokumenten, wie z.B. die Darstellung als offener, verteilter Hypertext oder ihre leichte Veränderbarkeit. In der vorliegenden Arbeit wird untersucht, inwieweit die gegenwärtigen Suchdienste für das WWW Anforderungen an die wissenschaftliche Informationssuche entsprechen. Dazu wird ein Überblick über die Arbeitsweisen sowie generelle Stärken und Schwächen verschiedener Typen von Suchdiensten (roboterbasierte, manuell erstellt sowie simultane) gegeben
    Footnote
    Magisterarbeit im Fach Informationswissenschaft an der Freien Universität Berlin