Search (301 results, page 2 of 16)

  • × language_ss:"e"
  • × theme_ss:"Internet"
  1. Research and advanced technology for digital libraries : 10th European conference ; proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006 ; proceedings (2006) 0.02
    0.022089075 = product of:
      0.04417815 = sum of:
        0.010524188 = weight(_text_:der in 2428) [ClassicSimilarity], result of:
          0.010524188 = score(doc=2428,freq=2.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.09871948 = fieldWeight in 2428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.020721745 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.020721745 = score(doc=2428,freq=8.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.012932217 = product of:
          0.025864433 = sum of:
            0.025864433 = weight(_text_:22 in 2428) [ClassicSimilarity], result of:
              0.025864433 = score(doc=2428,freq=2.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.15476047 = fieldWeight in 2428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2428)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Content
    Inhalt u.a.: Architectures I Preservation Retrieval - The Use of Summaries in XML Retrieval / Zoltdn Szldvik, Anastasios Tombros, Mounia Laimas - An Enhanced Search Interface for Information Discovery from Digital Libraries / Georgia Koutrika, Alkis Simitsis - The TIP/Greenstone Bridge: A Service for Mobile Location-Based Access to Digital Libraries / Annika Hinze, Xin Gao, David Bainbridge Architectures II Applications Methodology Metadata Evaluation User Studies Modeling Audiovisual Content Language Technologies - Incorporating Cross-Document Relationships Between Sentences for Single Document Summarizations / Xiaojun Wan, Jianwu Yang, Jianguo Xiao - Semantic Web Techniques for Multiple Views on Heterogeneous Collections: A Case Study / Marjolein van Gendt, Antoine Isaac, Lourens van der Meij, Stefan Schlobach Posters - A Tool for Converting from MARC to FRBR / Trond Aalberg, Frank Berg Haugen, Ole Husby
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  2. Hedden, H.: Indexing specialities : Web Sites (2007) 0.02
    0.021527827 = product of:
      0.06458348 = sum of:
        0.032544255 = weight(_text_:der in 1146) [ClassicSimilarity], result of:
          0.032544255 = score(doc=1146,freq=34.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.30527312 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.032039225 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.032039225 = score(doc=1146,freq=34.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  3. Human perspectives in the Internet society : culture, psychology and gender; International Conference on Human Perspectives in the Internet Society <1, 2004, Cádiz> (2004) 0.02
    0.02108332 = product of:
      0.04216664 = sum of:
        0.016640203 = weight(_text_:der in 91) [ClassicSimilarity], result of:
          0.016640203 = score(doc=91,freq=20.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.1560892 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.016381977 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.016381977 = score(doc=91,freq=20.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.15487336 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.009144458 = product of:
          0.018288916 = sum of:
            0.018288916 = weight(_text_:22 in 91) [ClassicSimilarity], result of:
              0.018288916 = score(doc=91,freq=4.0), product of:
                0.16712558 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04772522 = queryNorm
                0.109432176 = fieldWeight in 91, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    303.48/33 22 (LoC)
    AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
    MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
    SR 850 Informatik / Nachschlagewerke. Didaktik / Allgemeines, Nachschlagewerke, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    DDC
    303.48/33 22 (LoC)
    RVK
    AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
    MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
    SR 850 Informatik / Nachschlagewerke. Didaktik / Allgemeines, Nachschlagewerke, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
  4. Price, D.J.: Indexing the world : current developments in accessing distributed information (1995) 0.02
    0.021036936 = product of:
      0.063110806 = sum of:
        0.037208624 = weight(_text_:der in 3202) [ClassicSimilarity], result of:
          0.037208624 = score(doc=3202,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34902605 = fieldWeight in 3202, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3202)
        0.02590218 = weight(_text_:und in 3202) [ClassicSimilarity], result of:
          0.02590218 = score(doc=3202,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 3202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3202)
      0.33333334 = coord(2/6)
    
    Source
    Wissen in elektronischen Netzwerken: Strukturierung, Erschließung und Retrieval von Informationsressourcen im Internet. Eine Auswahl von Vorträgen der 19. Jahrestagung der Gesellschaft für Klassifikation, Basel 1995. Hrsg.: H.-C. Hobohm u. H.-J. Wätjen
  5. Rusch-Feja, D.: Structuring subject information sources in the Internet (1995) 0.02
    0.021036936 = product of:
      0.063110806 = sum of:
        0.037208624 = weight(_text_:der in 3203) [ClassicSimilarity], result of:
          0.037208624 = score(doc=3203,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34902605 = fieldWeight in 3203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3203)
        0.02590218 = weight(_text_:und in 3203) [ClassicSimilarity], result of:
          0.02590218 = score(doc=3203,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 3203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3203)
      0.33333334 = coord(2/6)
    
    Source
    Wissen in elektronischen Netzwerken: Strukturierung, Erschließung und Retrieval von Informationsressourcen im Internet. Eine Auswahl von Vorträgen der 19. Jahrestagung der Gesellschaft für Klassifikation, Basel 1995. Hrsg.: H.-C. Hobohm u. H.-J. Wätjen
  6. Koch, T.; Ardö, A.; Falcoz, F.; Nielsen, M.; Dandfær, M.: Improving resource discovery and retrieval on the Internet : the Nordic WAIS/World Wide Web Project and the classification of WAIS databases (1995) 0.02
    0.021036936 = product of:
      0.063110806 = sum of:
        0.037208624 = weight(_text_:der in 3370) [ClassicSimilarity], result of:
          0.037208624 = score(doc=3370,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34902605 = fieldWeight in 3370, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3370)
        0.02590218 = weight(_text_:und in 3370) [ClassicSimilarity], result of:
          0.02590218 = score(doc=3370,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 3370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3370)
      0.33333334 = coord(2/6)
    
    Source
    Wissen in elektronischen Netzwerken: Strukturierung, Erschließung und Retrieval von Informationsressourcen im Internet. Eine Auswahl von Vorträgen der 19. Jahrestagung der Gesellschaft für Klassifikation, Basel 1995. Hrsg.: H.-C. Hobohm u. H.-J. Wätjen
  7. Larbey, D.: Electronic document delivery in the UK with particular reference to the Electronic Libraries Programme and the EDDIS project (1997) 0.02
    0.021036936 = product of:
      0.063110806 = sum of:
        0.037208624 = weight(_text_:der in 1868) [ClassicSimilarity], result of:
          0.037208624 = score(doc=1868,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.34902605 = fieldWeight in 1868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=1868)
        0.02590218 = weight(_text_:und in 1868) [ClassicSimilarity], result of:
          0.02590218 = score(doc=1868,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 1868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1868)
      0.33333334 = coord(2/6)
    
    Source
    Weiter auf dem Weg zur Virtuellen Bibliothek! Praxis, Projekte, Perspektiven. 2. INETBIB-Tagung der Universitätsbibliothek Dortmund und der Fachhochschule Potsdam, Fachbereich Archiv-Bibliothek - Dokumentation vom 10.-11.3.1997. 2., erw. Aufl. Hrsg. von B. Tröger u. H.-C. Hobohm
  8. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.02
    0.021010578 = product of:
      0.06303173 = sum of:
        0.034805484 = weight(_text_:der in 1418) [ClassicSimilarity], result of:
          0.034805484 = score(doc=1418,freq=56.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.326484 = fieldWeight in 1418, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.028226245 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.028226245 = score(doc=1418,freq=38.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.26684773 = fieldWeight in 1418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.33333334 = coord(2/6)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  9. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.02
    0.020957053 = product of:
      0.06287116 = sum of:
        0.0292981 = weight(_text_:der in 3198) [ClassicSimilarity], result of:
          0.0292981 = score(doc=3198,freq=62.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.2748234 = fieldWeight in 3198, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
        0.03357306 = weight(_text_:und in 3198) [ClassicSimilarity], result of:
          0.03357306 = score(doc=3198,freq=84.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.31739593 = fieldWeight in 3198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
    Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  10. Mußler, G.; Reiterer, H.; Mann, T.M.: INSYDER - Information Retrieval aspects of a business intelligence system (2000) 0.02
    0.020063888 = product of:
      0.06019166 = sum of:
        0.044650353 = weight(_text_:der in 5487) [ClassicSimilarity], result of:
          0.044650353 = score(doc=5487,freq=16.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.4188313 = fieldWeight in 5487, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5487)
        0.015541308 = weight(_text_:und in 5487) [ClassicSimilarity], result of:
          0.015541308 = score(doc=5487,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.14692576 = fieldWeight in 5487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5487)
      0.33333334 = coord(2/6)
    
    Abstract
    Dieser Beitrag beschäftigt sich mit INSYDER, einem visuell unterstützten Suchsystem im Umfeld der sogenannten Business Intelligence Systeme. Dabei liegt der Schwerpunkt dieses Beitrags in der Erläuterung der Information Retrieval- und Visualisierungsaspekte zur Unterstützung des Suchprozesses im WWW. Vorgestellt wird das Rankingverfahren, das Interaktive Relevance Feedback sowie die Beschreibung der Unterstützung des Benutzers bei der Formulierung der Suchanfrage mittels Visualisierung.
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  11. Schröter, H.G.: Wie die Computerbranche den Cyberspace in einen Geschäftsraum verwandelt : 'Wörml' steht für 3D im Internet - Black Sun aus München einer der Pioniere - Digitale Welt für Spiele und Wirtschaft - Virtuelle Auftritte zur CeBIT in Hannover (1997) 0.02
    0.019150253 = product of:
      0.05745076 = sum of:
        0.026046038 = weight(_text_:der in 6857) [ClassicSimilarity], result of:
          0.026046038 = score(doc=6857,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.24431825 = fieldWeight in 6857, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6857)
        0.031404722 = weight(_text_:und in 6857) [ClassicSimilarity], result of:
          0.031404722 = score(doc=6857,freq=6.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.2968967 = fieldWeight in 6857, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6857)
      0.33333334 = coord(2/6)
    
    Abstract
    Ausruhen - das kennt die Branche von Bits und Bytes nicht. Während die erste Internet-Welle noch nicht gekippt ist, baut die Computerindustrie schon die nächste Woge auf. Dem Web will sie eine neue Dimension verleihen: Das Online-Geflecht aus flachen Seiten zum Ansehen möchte sie für Millionen in einen lebendigen, begehbaren Raum verwandeln - der Cyberspace aus Science-fiction-Romanen soll bis hin zur digitalen Zivilisation Wirklichkeit werden, ein neuer Milliardenmarkt entsteht. Mit virtuellen Messe-Auftritten locken Hersteller von Soft- und Hardware zur CeBIT
  12. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.02
    0.019065201 = product of:
      0.057195604 = sum of:
        0.0292981 = weight(_text_:der in 1832) [ClassicSimilarity], result of:
          0.0292981 = score(doc=1832,freq=62.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.2748234 = fieldWeight in 1832, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.027897501 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.027897501 = score(doc=1832,freq=58.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  13. Clyde, L.A.: Weblogs and libraries (2004) 0.02
    0.019016972 = product of:
      0.057050914 = sum of:
        0.024363838 = weight(_text_:der in 4496) [ClassicSimilarity], result of:
          0.024363838 = score(doc=4496,freq=14.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.2285388 = fieldWeight in 4496, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
        0.032687075 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
          0.032687075 = score(doc=4496,freq=26.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.3090199 = fieldWeight in 4496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
      0.33333334 = coord(2/6)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
    Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
  14. Virtuelle Welten im Internet : Tagungsband ; [Vorträge und Diskussionen der Fachkonferenz des Münchner Kreises am 21. November 2007] / [Münchner Kreis] (2008) 0.02
    0.018816007 = product of:
      0.05644802 = sum of:
        0.033280406 = weight(_text_:der in 2926) [ClassicSimilarity], result of:
          0.033280406 = score(doc=2926,freq=20.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.3121784 = fieldWeight in 2926, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2926)
        0.023167614 = weight(_text_:und in 2926) [ClassicSimilarity], result of:
          0.023167614 = score(doc=2926,freq=10.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.219024 = fieldWeight in 2926, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2926)
      0.33333334 = coord(2/6)
    
    Abstract
    - Wachstumsfeld 3D-Internet - wertvolle Informationen hochkarätiger Fachleute Virtuelle Welten entwickeln sich in der industrialisierten Welt zu einem Massenphänomen. Millionen Menschen schaffen sich eine zweite Identität in Second Life, agieren als künstliche "Wesen", den Avataren in virtuellen Umgebungen oder spielen Online-Rollenspiele. Der Reiz der virtuellen Welten liegt in der Überwindung der Grenzen, die in einem realen Leben gesetzt sind. Ganz neue Geschäftsmöglichkeiten können hier entstehen. Ein Unternehmen nach dem anderen baut daher seine Insel in den virtuellen Welten. In zahlreichen Beiträgen erhalten Sie in diesem Band wertvolle Informationen, um selbst in den virtuellen Welten operieren zu können: - Boas Betzler von IBM Research, Wappingers Falls, NY erläutert Anforderungen an die technologische Infrastruktur, - Claus Nehmzow von der PA Consulting Group, London nimmt sie mit auf eine Geschäftsreise in Second Life, - Daniel Michelis von der Universität der Künste, Berlin zeigt, wie Sie Ihren Avatar studieren lassen können, - Dr. Wolfram Proksch von Proksch & Fritsche Rechtsanwälte, Wien klärt auf über Cyberspace Regulation, - Robert Gehorsam von Forterra Systems, NY berichtet über Erfahrungen mit Mitarbeiterschulung in den virtuellen Welten und - Jean Miller von Linden Lab, San Francisco beleuchtet Entwicklungsmöglichkeiten, die sie für Second Life sieht. Ungezählte weitere Aspekte der faszinierenden virtuellen Welten werden behandelt und geben Ihnen Antwort zu vielfältigen Fragestellungen, die sich in diesem Zusammenhang stellen (sollten).
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  15. Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001) 0.02
    0.018338786 = product of:
      0.055016357 = sum of:
        0.033539403 = weight(_text_:der in 5729) [ClassicSimilarity], result of:
          0.033539403 = score(doc=5729,freq=52.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.31460786 = fieldWeight in 5729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5729)
        0.021476954 = weight(_text_:und in 5729) [ClassicSimilarity], result of:
          0.021476954 = score(doc=5729,freq=22.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.20304069 = fieldWeight in 5729, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5729)
      0.33333334 = coord(2/6)
    
    Abstract
    In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
    Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
    Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
  16. Harms, I.; Schweibenz, W.: Usability engineering methods for the Web (2000) 0.02
    0.018086996 = product of:
      0.054260984 = sum of:
        0.027342647 = weight(_text_:der in 5482) [ClassicSimilarity], result of:
          0.027342647 = score(doc=5482,freq=6.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.25648075 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
        0.026918335 = weight(_text_:und in 5482) [ClassicSimilarity], result of:
          0.026918335 = score(doc=5482,freq=6.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.2544829 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
      0.33333334 = coord(2/6)
    
    Content
    Der Beitrag präsentiert eine Studie über Evaluationsmethoden zur WebUsability. Er beschreibt die "Heuristics for Web Communications" und berichtet von den praktischen Erfahrungen mit den Heuristiken, die mit dem "Keevil Index" verglichen und mit Benutzertests mit lautem Denken kombiniert werden. Das Ergebnis zeigt, dass eine Evaluation mit den beschriebenen Heuristiken gegenüber dem "Keevil Index" mehr Zeit und Aufwand erfordert, aber konsistentere Ergebnisse bringt. Die Heuristiken haben sich sowohl in der experten-zentrierten Evaluation als auch in Kombination mit dem Benutzertest insgesamt als geeignete Evaluationsmethode erwiesen
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  17. Koch, T.; Vizine-Goetz, D.: DDC and knowledge organization in the digital library : Research and development. Demonstration pages (1999) 0.02
    0.017802598 = product of:
      0.053407792 = sum of:
        0.022325177 = weight(_text_:der in 942) [ClassicSimilarity], result of:
          0.022325177 = score(doc=942,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.20941564 = fieldWeight in 942, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
        0.031082615 = weight(_text_:und in 942) [ClassicSimilarity], result of:
          0.031082615 = score(doc=942,freq=8.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.29385152 = fieldWeight in 942, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=942)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Workshop gibt einen Einblick in die aktuelle Forschung und Entwicklung zur Wissensorganisation in digitalen Bibliotheken. Diane Vizine-Goetz vom OCLC Office of Research in Dublin, Ohio, stellt die Forschungsprojekte von OCLC zur Anpassung und Weiterentwicklung der Dewey Decimal Classification als Wissensorganisationsinstrument fuer grosse digitale Dokumentensammlungen vor. Traugott Koch, NetLab, Universität Lund in Schweden, demonstriert die Ansätze und Lösungen des EU-Projekts DESIRE zum Einsatz von intellektueller und vor allem automatischer Klassifikation in Fachinformationsdiensten im Internet.
  18. Fleming, J.: Web navigation : designing the user experience (1998) 0.02
    0.017404217 = product of:
      0.05221265 = sum of:
        0.026310472 = weight(_text_:der in 2372) [ClassicSimilarity], result of:
          0.026310472 = score(doc=2372,freq=2.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.2467987 = fieldWeight in 2372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=2372)
        0.02590218 = weight(_text_:und in 2372) [ClassicSimilarity], result of:
          0.02590218 = score(doc=2372,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.24487628 = fieldWeight in 2372, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2372)
      0.33333334 = coord(2/6)
    
    Abstract
    Behandelt die Phasen der Erstellung von Webseiten: (1) Informationssammlung (2) Strategie (3) Erstellung eines Prototyps (4) Implementierung (5) Start (6) Wartung und Wachstum
  19. Chan, L.M.; Lin, X.; Zeng, M.: Structural and multilingual approaches to subject access on the Web (1999) 0.02
    0.016829548 = product of:
      0.050488643 = sum of:
        0.0297669 = weight(_text_:der in 162) [ClassicSimilarity], result of:
          0.0297669 = score(doc=162,freq=4.0), product of:
            0.10660701 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04772522 = queryNorm
            0.27922085 = fieldWeight in 162, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
        0.020721745 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.020721745 = score(doc=162,freq=2.0), product of:
            0.1057766 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04772522 = queryNorm
            0.19590102 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.33333334 = coord(2/6)
    
    Abstract
    Zu den großen Herausforderungen einer sinnvollen Suche im WWW gehören die riesige Menge des Verfügbaren und die Sparchbarrieren. Verfahren, die die Web-Ressourcen im Hinblick auf ein effizienteres Retrieval inhaltlich strukturieren, werden daher ebenso dringend benötigt wie Programme, die mit der Sprachvielfalt umgehen können. Im folgenden Vortrag werden wir einige Ansätze diskutieren, die zur Bewältigung der beiden Probleme derzeit unternommen werden
  20. Levy, P.: Collective intelligence : mankind's emerging world in cyberspace (1997) 0.02
    0.016415155 = product of:
      0.09849092 = sum of:
        0.09849092 = product of:
          0.19698185 = sum of:
            0.19698185 = weight(_text_:kultur in 3) [ClassicSimilarity], result of:
              0.19698185 = score(doc=3,freq=4.0), product of:
                0.2742408 = queryWeight, product of:
                  5.746245 = idf(docFreq=383, maxDocs=44218)
                  0.04772522 = queryNorm
                0.7182806 = fieldWeight in 3, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.746245 = idf(docFreq=383, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    RSWK
    Kultur / Intelligenz / Cyberspace
    Subject
    Kultur / Intelligenz / Cyberspace

Years

Types

  • a 223
  • m 53
  • s 17
  • el 16
  • i 2
  • r 2
  • More… Less…

Subjects

Classifications