Search (279 results, page 1 of 14)

  • × theme_ss:"Internet"
  • × language_ss:"e"
  1. Shiri, A.A.; Revie, C.: Thesauri on the Web : current developments and trends (2000) 0.27
    0.26575798 = product of:
      0.3189096 = sum of:
        0.017951237 = weight(_text_:und in 2558) [ClassicSimilarity], result of:
          0.017951237 = score(doc=2558,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.17141339 = fieldWeight in 2558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2558)
        0.08565781 = weight(_text_:anwendung in 2558) [ClassicSimilarity], result of:
          0.08565781 = score(doc=2558,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.37443897 = fieldWeight in 2558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2558)
        0.028025504 = weight(_text_:des in 2558) [ClassicSimilarity], result of:
          0.028025504 = score(doc=2558,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.2141777 = fieldWeight in 2558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2558)
        0.11969343 = weight(_text_:prinzips in 2558) [ClassicSimilarity], result of:
          0.11969343 = score(doc=2558,freq=2.0), product of:
            0.27041927 = queryWeight, product of:
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.04725067 = queryNorm
            0.44262168 = fieldWeight in 2558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.723078 = idf(docFreq=392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2558)
        0.06758159 = product of:
          0.13516317 = sum of:
            0.13516317 = weight(_text_:thesaurus in 2558) [ClassicSimilarity], result of:
              0.13516317 = score(doc=2558,freq=6.0), product of:
                0.21834905 = queryWeight, product of:
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.04725067 = queryNorm
                0.6190234 = fieldWeight in 2558, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  4.6210785 = idf(docFreq=1182, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2558)
          0.5 = coord(1/2)
      0.8333333 = coord(5/6)
    
    Abstract
    This article provides an overview of recent developments relating to the application of thesauri in information organisation and retrieval on the World Wide Web. It describes some recent thesaurus projects undertaken to facilitate resource description and discovery and access to wide-ranging information resources on the Internet. Types of thesauri available on the Web, thesauri integrated in databases and information retrieval systems, and multiple-thesaurus systems for cross-database searching are also discussed. Collective efforts and events in addressing the standardisation and novel applications of thesauri are briefly reviewed.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.06
    0.06185455 = product of:
      0.1237091 = sum of:
        0.035534237 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.035534237 = score(doc=2787,freq=24.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.048947323 = weight(_text_:anwendung in 2787) [ClassicSimilarity], result of:
          0.048947323 = score(doc=2787,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.21396513 = fieldWeight in 2787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.039227534 = weight(_text_:des in 2787) [ClassicSimilarity], result of:
          0.039227534 = score(doc=2787,freq=12.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.29978633 = fieldWeight in 2787, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.5 = coord(3/6)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  3. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.04
    0.0426197 = product of:
      0.0852394 = sum of:
        0.02713972 = weight(_text_:und in 6123) [ClassicSimilarity], result of:
          0.02713972 = score(doc=6123,freq=14.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.25915268 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.045296054 = weight(_text_:des in 6123) [ClassicSimilarity], result of:
          0.045296054 = score(doc=6123,freq=16.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.34616345 = fieldWeight in 6123, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.012803626 = product of:
          0.025607252 = sum of:
            0.025607252 = weight(_text_:22 in 6123) [ClassicSimilarity], result of:
              0.025607252 = score(doc=6123,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.15476047 = fieldWeight in 6123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6123)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    22.10.2006 10:22:33
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  4. Lande, D.; Braichevski, S.; Busch, D.: Informationsflüsse im Internet (2007) 0.04
    0.036644265 = product of:
      0.109932795 = sum of:
        0.0458745 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.0458745 = score(doc=628,freq=10.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.438048 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
        0.0640583 = weight(_text_:des in 628) [ClassicSimilarity], result of:
          0.0640583 = score(doc=628,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.48954904 = fieldWeight in 628, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Artikel geht es um Entwicklungstrends und Probleme, die mit dem schnellen Informationszuwachs im Internet verbunden sind. Es wird gezeigt, dass die Hauptschwierigkeiten nicht mit der Leistung von Software und der Hardware, sondern mit Besonderheiten des Sachgebietes zusammen hängen. Im Rahmen des Konzeptes der Informationsflüsse werden aktuelle Probleme des Information Retrieval, der Strukturierung des Informationsraums und dessen Verhältnis zum semantischen Raum behandelt. Der Artikel zeigt einige Lösungen dieser Probleme, die auf dem Textmining und fraktalen Modellen basieren.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.277-284
  5. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.04
    0.036639526 = product of:
      0.07327905 = sum of:
        0.027620107 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.027620107 = score(doc=1832,freq=58.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.024473662 = weight(_text_:anwendung in 1832) [ClassicSimilarity], result of:
          0.024473662 = score(doc=1832,freq=2.0), product of:
            0.22876309 = queryWeight, product of:
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.04725067 = queryNorm
            0.10698257 = fieldWeight in 1832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8414783 = idf(docFreq=948, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.02118529 = weight(_text_:des in 1832) [ClassicSimilarity], result of:
          0.02118529 = score(doc=1832,freq=14.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.16190313 = fieldWeight in 1832, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
      0.5 = coord(3/6)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  6. Lipow, A.G.: ¬The virtual reference librarian's handbook (2003) 0.03
    0.034501456 = product of:
      0.06900291 = sum of:
        0.03269061 = weight(_text_:und in 3992) [ClassicSimilarity], result of:
          0.03269061 = score(doc=3992,freq=52.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3121572 = fieldWeight in 3992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.028310036 = weight(_text_:des in 3992) [ClassicSimilarity], result of:
          0.028310036 = score(doc=3992,freq=16.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 3992, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.008002267 = product of:
          0.016004534 = sum of:
            0.016004534 = weight(_text_:22 in 3992) [ClassicSimilarity], result of:
              0.016004534 = score(doc=3992,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.09672529 = fieldWeight in 3992, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3992)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Date
    22. 3.2004 14:46:50
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
    Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
    Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
  7. Günther, S.: Aufbruch in den virtuellen Raum : Anleitung zum Aufbau eines Web Contact Centers (2005) 0.03
    0.033261735 = product of:
      0.06652347 = sum of:
        0.022208897 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.022208897 = score(doc=4207,freq=6.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.21206908 = fieldWeight in 4207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.028310036 = weight(_text_:des in 4207) [ClassicSimilarity], result of:
          0.028310036 = score(doc=4207,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 4207, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.016004534 = product of:
          0.03200907 = sum of:
            0.03200907 = weight(_text_:22 in 4207) [ClassicSimilarity], result of:
              0.03200907 = score(doc=4207,freq=2.0), product of:
                0.16546379 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04725067 = queryNorm
                0.19345059 = fieldWeight in 4207, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4207)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Die Weiten des Internet tendieren ins Unendliche - kaum etwas, was dort nicht vorhanden zu sein scheint. Google rühmt sich, dass jetzt die Suche auf über acht Milliarden Websites möglich ist und hat mit dem Einscannen der Bestände von US-amerikanischen und englischen Bibliotheken schon das nächste größere Projekt in Angriff genommen. Auch Microsoft schickt sich an, eine ernstzunehmende Konkurrenz in Sachen Internetrecherche zu werden. Hinzu kommt, dass das Internet eine immer größere Nutzung erfährt, 2004 lag diese bei 55,3 Prozent der Bevölkerung ab 14 Jahren - doch das alles heißt nicht, dass die Nutzer 3 im Gegenzug auch immer bessere Recherchefähigkeiten aufweisen. Es vergeht kein Tag, an dem im Informationsdienst von Bibliotheken nicht der Satz »Im Internet habe ich schon geguckt, dafind ich nix!« fällt. 100.000 Treffer zu einer Suchanfrage zu erhalten ist nicht die Kunst, aber fünf relevante Treffer zu erhalten, die noch dazu einer kritischen Bewertung standhalten (Stichwort »Information Literacy«), das bedarf eines professionellen Informationsvermittlers - eines Bibliothekars! Noch nie waren so viele Nutzer im Netz und zugleich so viele so unzufrieden. Wäre es nicht Aufgabe der Bibliotheken diese (potenziellen) Kunden aufzufangen, bevor sie in den Weiten des Internet verloren gehen? Dieses Auffangnetz existiert bereits - bekannt als Digital Reference Service, gebündelt durch die Funktionen, die das Web Contact Center bereit hält.
    Date
    22. 9.2005 20:50:31
  8. Telekommunikation, Internet, Zukunft : ein strategischer Überblick für die Praxis (1996) 0.03
    0.02671079 = product of:
      0.080132365 = sum of:
        0.046160325 = weight(_text_:und in 6947) [ClassicSimilarity], result of:
          0.046160325 = score(doc=6947,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.4407773 = fieldWeight in 6947, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6947)
        0.03397204 = weight(_text_:des in 6947) [ClassicSimilarity], result of:
          0.03397204 = score(doc=6947,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 6947, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6947)
      0.33333334 = coord(2/6)
    
    Abstract
    Die 10 Hauptkapitel enthalten verständlich geschriebene, aktuelle Übersichten mit vielen Visualisierungen zu aktuellen Fragen der Telekommunikation (zum Beispiel zu neueren Trends, zu kommerziellen Perspektiven des Internets und zu Erfahrungen regionaler Projekte). Das Produkt liefert eine in dieser Form auf dem MArkt nicht verfügbare Übersicht für alle am Thema Interessierten. Er ist besonders nützlich für Praktiker in Unternehmen (Weiterbildung) sowie für Schüler, Lehrer, Studenten und Professoren. Die Dokumente liegen im HTML-Format vor und können auch in den Formaten Winword ab 6.0 und Powerpoint ab 7.0 geladen und weiterverarbeitet werden. Die 10 Kapitel behandeln die Themen: Visionen für die Zukunft, Zukünftige Märkte und Strukturveränderungen, TK-Anbieter und ihre Dienste, Einführungin die Internet-Praxis, Online-Dienste und Internet-Provider, Kommerzielle Perspektiven des Internet, Regionale elektronische Gemeinschaften, Telearbeit als neue Arbeitsform, Politische und rechtliche Rahmenbedingungen, Telekommunikation in der Kritik
  9. Rösch, H.: Entwicklungsstand und Qualitätsmanagement digitaler Auskunft in Bibliotheken (2007) 0.03
    0.025183175 = product of:
      0.07554952 = sum of:
        0.043520372 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.043520372 = score(doc=400,freq=36.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.03202915 = weight(_text_:des in 400) [ClassicSimilarity], result of:
          0.03202915 = score(doc=400,freq=8.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 400, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
      0.33333334 = coord(2/6)
    
    Abstract
    Zunächst wird die aktuelle Bedeutung digitaler Auskunft in der Informationsgesellschaft angesprochen. Anschließend folgt ein Überblick über den bislang erreichten Entwicklungsstand dieser relativ neuen Dienstleistung. Dabei werden die Vor- und Nachteile der technischen und organisatorischen Varianten erläutert. Schließlich richtet sich der Blick auf Qualitätskriterien zur Bewertung und Verbesserung digitaler Auskunft in der Praxis.
    Content
    "Die Ursprünge digitaler Auskunft reichen zurück in die 1980er Jahre. Aus bescheidenen Anfängen hat sich inzwischen eine bibliothekarische Standarddienstleistung entwickelt. Mit dem digitalen Umbruch stellten die Bibliotheken zunächst ihre Kataloge im Web für die Recherche bereit und boten FAQs zur Beantwortung von Standardfragen an. Um den vollen Umfang bibliothekarischer Dienstleistungen im Internet präsentieren zu können, bedurfte es darüber hinaus der Entwicklung eines Äquivalents für die klassische Auskunft im WWW. Die Entwicklung von digitaler Auskunft drängte sich aber nicht nur aus diesem Grund auf; das Web veränderte (und verändert) zudem die Informationskultur der Kunden; diese erwarten schnelleren und einfacheren Service. Alles soll so unmittelbar und so unkompliziert recherchierbar sein, wie man es von Google, Yahoo und anderen gewohnt ist. Außerdem hat die bibliothekarische Auskunft mit "Yahoo Clever" oder "Lycos IQ" kommerzielle Konkurrenten erhalten. Digitale Auskunft musste also als Antwort auf die Herausforderungen der kommerziellen Konkurrenz und der veränderten Benutzergewohnheiten schnell entwickelt werden. Denn nur so konnte und kann rechtzeitig unter Beweis gestellt werden, dass Bibliotheken für viele Auskunftsfälle gegenüber Suchmaschinen und Webkatalogen einen ungeheueren Vorteil besitzen: Die klassische und damit auch die digitale Auskunft zielt nicht darauf, die Fragen zu beantworten, die Benutzer stellen, sondern (idealerweise) darauf, ihnen die Informationen zu verschaffen, die sie tatsächlich benötigen.
    Schon in der ersten Hälfte des 20. Jahrhunderts war in der Praxis des Auskunftsdienstes in den USA bekannt geworden, dass Benutzer häufig nicht nach dem fragen was sie eigentlich suchen, sondern meist allgemeine und nicht selten irreführende Fragen stellen. Dafür ist die Technik des Auskunftsinterviews entwickelt worden, um gemeinsam mit dem Kunden zu ermitteln, welche Informationen exakt gesucht werden. Während Suchmaschinen nur die syntaktische und (in Ausnahmefällen) die semantische Ebene der gestellten Frage abarbeiten können, vermag bibliothekarische Auskunft einer dritten, nämlich jener pragmatischen Dimension gerecht zu werden. Anders ausgedrückt: Suchmaschinen und andere Navigationsinstrumente des Internet arbeiten objektorientiert, digitale Auskunft durch bibliothekarische Experten hingegen erbringt subjekt- bzw. kundenorientierte Dienstleistungen. Bibliotheken mit elaborierter digitaler Auskunft sind den Herausforderungen der Informationsgesellschaft damit gewachsen: ja sie sind noch unverzichtbarer als zuvor. Speziell in Deutschland allerdings ist es nicht damit getan, digitale Auskunft mit Engagement zu entwickeln. Darüber hinaus müssen große Anstrengungen unternommen werden, um die Leistungsfähigkeit dieser bibliothekarischen Dienstleistung in das Bewusstsein der realen und potentiellen Kunden zu rücken."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.4, S.197-202
  10. Babik, W.: ¬The Internet as the present-day agora of information and knowledge (2017) 0.03
    0.02517884 = product of:
      0.07553652 = sum of:
        0.035902474 = weight(_text_:und in 3513) [ClassicSimilarity], result of:
          0.035902474 = score(doc=3513,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.34282678 = fieldWeight in 3513, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3513)
        0.03963405 = weight(_text_:des in 3513) [ClassicSimilarity], result of:
          0.03963405 = score(doc=3513,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.302893 = fieldWeight in 3513, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3513)
      0.33333334 = coord(2/6)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  11. EEVL - Enhanced and Evaluated Virtual Library (o.J.) 0.02
    0.022952585 = product of:
      0.06885775 = sum of:
        0.040547714 = weight(_text_:und in 2260) [ClassicSimilarity], result of:
          0.040547714 = score(doc=2260,freq=20.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3871834 = fieldWeight in 2260, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2260)
        0.028310036 = weight(_text_:des in 2260) [ClassicSimilarity], result of:
          0.028310036 = score(doc=2260,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21635216 = fieldWeight in 2260, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2260)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: ZfBB 51(2004) H.2, S.116-118 (H. Jüngling): "Das überspitzt gezeichnete Bild vom Ingenieur,der nur mit Rechenschieber und Zeichenbrett ausgestattet und ohne weitere Hilfsmittel im stillen Kämmerlein erfolgreich neue, nützliche Maschinen konstruiert, stimmt schon lange nicht mehr. Zwar haben Ingenieure die Unterstützung durch moderne Rechner in der täglichen Praxis nicht nur gerne und zügig schätzen gelernt, sie waren sogar häufig Vorreiter bei deren (Weiter-)Entwicklung und Nutzung. Zur Beschaffung von Informationen jedweder Art wurden Rechner dagegen zunächst überaus zögerlich angenommen und gewannen - wie allerdings in vielen anderen Wissenschaftsbereichen auch -für diese Verwendung im Grunde erst durch die Möglichkeiten des Internets an Akzeptanz und Bedeutung. Erste Initiativen, dem möglicherweise spezifischen Informationsbedarf von Ingenieuren entgegenzukommen und der Engineering Community »runde« Angebote zu machen, gehen auf die Mitte der 90er-Jahre zurück. So sind 1994/95 u.a. die Engineering Electronic Library, Sweden (EELS, 1994),2 das Engineering Village von Engineering Information Inc., NewYork (1995)3 und die Edinburgh Engineering Virtual Library (EEVL, 1995)4 entstanden. Zum Vergleich sei angemerkt, dass konkrete Planungen für die Virtuelle Fachbibliothek Technik (ViFaTec)s der TIB/DFG erst 1997/98 einsetzten. Nach anfänglicher Euphorie hat sich bekanntermaßen relativ schnell gezeigt, dass derartige Angebote trotz teilweise überregionaler Zusammenarbeit nicht ohne erheblichen finanziellen Aufwand zu kreieren und vor allem aufrecht zu erhalten und zu pflegen sind.So hat z.B.die zweite Generation des Engineering Village von früheren, relativ hoch gesteckten Zielen Abstand genommen. Die EELS hat ihr Angebot bereits vor etwa einem Jahr »eingefroren«. Dagegen scheint die EEVL noch immer recht lebendig zu sein. U. a. deshalb soll hier näher darauf eingegangen werden. ..."
  12. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.02
    0.02265208 = product of:
      0.06795624 = sum of:
        0.037928913 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.037928913 = score(doc=2996,freq=70.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.030027326 = weight(_text_:des in 2996) [ClassicSimilarity], result of:
          0.030027326 = score(doc=2996,freq=18.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.22947611 = fieldWeight in 2996, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
    Das Buch besteht aus zwei Teilen: Section 1 - Accessibility and Why It Matters Section 2 - Strategies and Techniques for Maximum Accessibility Im ersten Teil geben die Autoren eine knappe Einführung, in der sie erläutern, was Accessibility bedeutet, und stellen die gesetzlichen Grundlagen in den USA vor. Daneben werfen sie aber auch einen kurzen Blick auf die Situation in Kanada, Australien, der Europäischen Union (EU) und Großbritannien (das interessanterweise nicht zur EU gezählt, sondern gesondert behandelt wird). Der Schwerpunkt USA und die dortige Gesetzeslage ist auch für Leser aus dem deutschsprachigen Raum durchaus interessant dargestellt, erlaubt er doch den Vergleich mit der gesetzlichen Lage in der EU, die durchaus nicht einheitlich ist-in einigen Staaten gelten die Vorschriften der Barrierefreiheit auch für kommerzielle Web-Angebote, z. B. in Großbritannien. In den weiteren Kapiteln wird ein breites Spektrum abgedeckt: Es werden verschiedene Initiatitiven zur Barrierefreiheit in den USA vorgestellt ebenso wie ein business case, der zeigt wie der return an Investment für Barrierefreiheit in einem konkreten Fall aussehen kann. Slatin und Rush gehen davon aus, dass Barrierefreiheit für jedes Unternehmen aus Geschäftsinteresse sinnvoll ist, weil immer mehr Menschen immer älter werden und damit die Wahrscheinlichkeit von körperlichen Beeinträchtigungen zunimmt. Dann liefern sie eine Reihe von Argumenten, warum sich Barrierefreiheit für Unternehmen rechnet. Im Anschluss geben sie einen Überblick, wie man WebSites auf Barrierefreiheit testet, wobei sie betonen, dass automatisierte Prüfwerkzeuge nur in Kombination mit einer Evaluation durch Gutachter bzw. UsabilityTests verwendet werden sollten. Allerdings, so räumen Slatin und Rush ein, helfen diese Werkzeuge und Methoden nicht, die absolute Barrierefreiheit für jeden einzelnen Benutzer oder unter allen Umständen zu erreichen. Anhand von Beispielen zeigen Slatin und Rush, dass Textversionen der Inhalte keine wirkliche Alternative zu tatsächlich barrierefreien Inhalten sind und wie Alternativen für die barrierefreie Präsentation multimedialer Inhalte zur Verfügung stehen. Im ersten Teil sind verschiedene Kapitel mit Erfahrungsberichte des blinden John Slatin eingebunden, die praxisbezogen und anschaulich zeigen, auf welche Probleme Blinde und Sehbehinderte im Web stoßen, so zum Beispiel - dass es für einen blinden Benutzer in der beschriebenen Version praktisch unmöglich war, bei der beschriebenen Version von Amazon online einzukaufen. - dass sich bei ÖPNV-Web-Angeboten trotz des Einsatzes assistiver Technologien wie beispielsweise eines Bildschirmvorleseprogramms (screen reader) erhebliche Probleme mit Tabellen ergeben, die durch ihre zweidimensionale Struktur zwar für die Wahrnehmung mit dem Auge geeignet sind, nicht aber für die Wahrnehmung mit dem Ohr. Allerdings zeigen Screenshots, dass einige dieser Fahrpläne auch sehende Benutzer vor visuelle und intellektuelle Herausforderungen stellen, weil ihr Informationsdesign schlecht gemacht ist.
    - dass der Zugriff auf verschiedene bekannte Museums-Web-Sites durchdie eingesetzten Programmiertechniken effektiv verhindert wird, weil bestimmte Funktionen für ein Bildschirmvorleseprogramm oder eine Braillezeile nicht darstellbar sind. Dazu gehören unter anderem: die beschriebenen Flash-Animationen, automatische refreshs und redirects, server-side image maps. Weitere Problempunkte sind inkonsistentes Design und die sequenzielle Anordnung der Texte, die in einer Reihenfolge vorgelesen werden, die nicht der logischen Struktur entspricht. Verschiedene Kapitel im zweiten Teil bieten eine stark technisch ausgerichtete Handreichung, wie Inhalte und HTMLCode von Web-Angeboten barrierefrei gestaltet werden können. Slatin und Rush behandeln unter anderem folgende Aspekte: - wie Alternativtexte und Langbeschreibungstexte sinnvoll eingesetzt werden und wo besser auf sie verzichtet wird - wie visuelle Inhalte von Grafiken für Blinde sinnvoll und ansprechend beschrieben werden - welche Rolle die Vorlesereihenfolge spielt - welche Alternativen es für textuelle Beschreibungen gibt - wie HTML-Eingabeformulare und HTML-Tabellen barrierefrei gestaltet werden können - dass PDF-Dokumente nicht per se zugänglich sind und wie sie gestaltet werden müssen, damit sie tatsächlich barrierefrei sind - wie Multimedia-Material aufbereitet werden muss - wie Cascading Style Sheets eingesetzt werden können Das Buch zeichnet sich durch ein leicht lesbares Englisch und einen gut verständlichen Stil aus. Die zahlreichen Beispiele aus dem Web-Alltag machen es interessant zu lesen und geben ihm einen hohen Praxisbezug. Die Bezugnahme auf die Richtlinien der Web Accessibility Initiative (WAI) des World Wide Web Consortiums und auf die U.S. Section 508 ziehen sich wie ein roter Faden durch das Buch. Bereits die Einführung enthält eine übersichtliche Tabelle, welche die WAIRichtlinien und die Section 508 den Buchkapiteln gegenüberstellt, in denen sie behandelt werden. Jedes Kapitel listet am Anfang nochmals die WAI-Richtlinien und Absätze der Section 508 auf, die dort vertieft behandelt werden. Darüber hinaus wird dem Leser in sogenannten user experience chapters aus der Perspektive des blinden John Slatin als Betroffenem ebenso einfühlsam wie praxisbezogen nahegebracht, mit welchen Problemen Menschen mit Behinderungen im Web konfrontiert werden. Dies hilft auf anschauliche Weise, das Bewusstsein für die Notwendigkeit von Barrierefreiheit zu wecken, ohne dass der moralische Zeigefinger erhoben wird. Diese Aspekte machen die Lektüre des Buchs gleichermaßen lehrreich wie angenehm."
  13. Hedden, H.: Indexing specialities : Web Sites (2007) 0.02
    0.02258448 = product of:
      0.067753434 = sum of:
        0.031720646 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.031720646 = score(doc=1146,freq=34.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.036032792 = weight(_text_:des in 1146) [ClassicSimilarity], result of:
          0.036032792 = score(doc=1146,freq=18.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.27537134 = fieldWeight in 1146, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  14. Digital libraries : policy, planning and practice (2004) 0.02
    0.022056133 = product of:
      0.0661684 = sum of:
        0.043520372 = weight(_text_:und in 3587) [ClassicSimilarity], result of:
          0.043520372 = score(doc=3587,freq=36.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.41556883 = fieldWeight in 3587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
        0.022648027 = weight(_text_:des in 3587) [ClassicSimilarity], result of:
          0.022648027 = score(doc=3587,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.17308173 = fieldWeight in 3587, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
    Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
  15. Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007) 0.02
    0.02204074 = product of:
      0.06612222 = sum of:
        0.02867156 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.02867156 = score(doc=797,freq=40.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27378 = fieldWeight in 797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
        0.037450656 = weight(_text_:des in 797) [ClassicSimilarity], result of:
          0.037450656 = score(doc=797,freq=28.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.286207 = fieldWeight in 797, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
      0.33333334 = coord(2/6)
    
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
    Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
  16. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.02
    0.021639053 = product of:
      0.064917155 = sum of:
        0.03358369 = weight(_text_:und in 2015) [ClassicSimilarity], result of:
          0.03358369 = score(doc=2015,freq=28.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.3206851 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.031333465 = weight(_text_:des in 2015) [ClassicSimilarity], result of:
          0.031333465 = score(doc=2015,freq=10.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.23945795 = fieldWeight in 2015, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  17. Koch, T.; Vizine-Goetz, D.: DDC and knowledge organization in the digital library : Research and development. Demonstration pages (1999) 0.02
    0.021581864 = product of:
      0.06474559 = sum of:
        0.030773548 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.030773548 = score(doc=942,freq=8.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 942, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.03397204 = weight(_text_:des in 942) [ClassicSimilarity], result of:
          0.03397204 = score(doc=942,freq=4.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.25962257 = fieldWeight in 942, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Workshop gibt einen Einblick in die aktuelle Forschung und Entwicklung zur Wissensorganisation in digitalen Bibliotheken. Diane Vizine-Goetz vom OCLC Office of Research in Dublin, Ohio, stellt die Forschungsprojekte von OCLC zur Anpassung und Weiterentwicklung der Dewey Decimal Classification als Wissensorganisationsinstrument fuer grosse digitale Dokumentensammlungen vor. Traugott Koch, NetLab, Universität Lund in Schweden, demonstriert die Ansätze und Lösungen des EU-Projekts DESIRE zum Einsatz von intellektueller und vor allem automatischer Klassifikation in Fachinformationsdiensten im Internet.
    Footnote
    Vortrag anläßlich des Workshops am 21.10.1999, Deutsche Bibliothek, Frankfurt/M.
  18. Golinski, M.: Use, but verify : composite indices for measuring the information society (2010) 0.02
    0.020347577 = product of:
      0.06104273 = sum of:
        0.029013582 = weight(_text_:und in 4677) [ClassicSimilarity], result of:
          0.029013582 = score(doc=4677,freq=4.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.27704588 = fieldWeight in 4677, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4677)
        0.03202915 = weight(_text_:des in 4677) [ClassicSimilarity], result of:
          0.03202915 = score(doc=4677,freq=2.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.24477452 = fieldWeight in 4677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=4677)
      0.33333334 = coord(2/6)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  19. Internet Privacy : eine multidisziplinäre Bestandsaufnahme / a multidisciplinary analysis: acatech STUDIE (2012) 0.02
    0.01950387 = product of:
      0.058511607 = sum of:
        0.030773548 = weight(_text_:und in 3383) [ClassicSimilarity], result of:
          0.030773548 = score(doc=3383,freq=18.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.29385152 = fieldWeight in 3383, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3383)
        0.027738057 = weight(_text_:des in 3383) [ClassicSimilarity], result of:
          0.027738057 = score(doc=3383,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.21198097 = fieldWeight in 3383, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3383)
      0.33333334 = coord(2/6)
    
    Abstract
    Aufgrund der so großen Bedeutung von Privatheit im Internet hat acatech, die Deutsche Akademie der Technikwissenschaften, 2011 ein Projekt initiiert, das sich mit dem Privatheitsparadoxon wissenschaftlich auseinandersetzt. In dem Projekt werden Empfehlungen entwickelt, wie sich eine Kultur der Privatheit und des Vertrauens im Internet etablieren lässt, die es ermöglicht, das Paradoxon aufzulösen. Wir verwenden hier den Begriff der Privatheit. Er deutet an, dass hier nicht nur der räumliche Begriff Privatsphäre gemeint ist, sondern auch das im europäischen Kontext wichtige Konzept der informationellen Selbstbestimmung einbezogen ist. Dieser Band legt die Ergebnisse der ersten Projektphase vor: eine Bestandsaufnahme von Privatheit im Internet aus verschiedenen Blickwinkeln. Kapitel 1 stellt die Wünsche und Befürchtungen von Internetnutzern und Gesellschaft im Hinblick auf ihre Privatheit vor. Sie wurden mithilfe sozialwissenschaftlicher Methoden untersucht. Ergänzend dazu untersucht das zweite Kapitel Privatheit im Cyberspace aus ethischer Perspektive. Das dritte Kapitel widmet sich ökonomischen Aspekten: Da viele Onlinedienstleistungen mit Nutzerdaten bezahlt werden, ergibt sich die Frage, was dies sowohl für den Nutzer und Kunden als auch für die Unternehmen bedeutet. Kapitel 4 hat einen technologischen Fokus und analysiert, wie Privatheit von Internettechnologien bedroht wird und welche technischen Möglichkeiten es gibt, um die Privatheit des Nutzers zu schützen. Selbstverständlich ist der Schutz von Privatheit im Internet nicht nur ein technisches Problem. Deshalb untersucht Kapitel 5 Privatheit aus rechtlicher Sicht. Bei der Lektüre der fünf Kapitel wird dem Leser sofort die Komplexität der Frage von Privatheit im Internet (Internet Privacy) bewusst. Daraus folgt die unbedingte Notwendigkeit eines interdisziplinären Ansatzes. In diesem Sinne wird die interdisziplinäre Projektgruppe gemeinsam Optionen und Empfehlungen für einen Umgang mit Privatheit im Internet entwickeln, die eine Kultur der Privatheit und des Vertrauens im Internet fördern. Diese Optionen und Empfehlungen werden 2013 als zweiter Band dieser Studie veröffentlicht.
  20. Mußler, G.; Reiterer, H.; Mann, T.M.: INSYDER - Information Retrieval aspects of a business intelligence system (2000) 0.02
    0.018997956 = product of:
      0.056993864 = sum of:
        0.015386774 = weight(_text_:und in 5487) [ClassicSimilarity], result of:
          0.015386774 = score(doc=5487,freq=2.0), product of:
            0.104724824 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04725067 = queryNorm
            0.14692576 = fieldWeight in 5487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5487)
        0.04160709 = weight(_text_:des in 5487) [ClassicSimilarity], result of:
          0.04160709 = score(doc=5487,freq=6.0), product of:
            0.13085164 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04725067 = queryNorm
            0.31797147 = fieldWeight in 5487, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5487)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Beitrag beschäftigt sich mit INSYDER, einem visuell unterstützten Suchsystem im Umfeld der sogenannten Business Intelligence Systeme. Dabei liegt der Schwerpunkt dieses Beitrags in der Erläuterung der Information Retrieval- und Visualisierungsaspekte zur Unterstützung des Suchprozesses im WWW. Vorgestellt wird das Rankingverfahren, das Interaktive Relevance Feedback sowie die Beschreibung der Unterstützung des Benutzers bei der Formulierung der Suchanfrage mittels Visualisierung.
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen

Years

Types

  • a 214
  • m 50
  • s 16
  • el 7
  • i 2
  • r 2
  • More… Less…

Subjects

Classifications