Search (81 results, page 1 of 5)

  • × language_ss:"e"
  • × theme_ss:"Internet"
  • × year_i:[2000 TO 2010}
  1. Human perspectives in the Internet society : culture, psychology and gender; International Conference on Human Perspectives in the Internet Society <1, 2004, Cádiz> (2004) 0.04
    0.037071716 = product of:
      0.09267929 = sum of:
        0.008312015 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.008312015 = score(doc=91,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.15487336 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.024574568 = product of:
          0.049149137 = sum of:
            0.049149137 = weight(_text_:nachschlagewerke in 91) [ClassicSimilarity], result of:
              0.049149137 = score(doc=91,freq=8.0), product of:
                0.16410409 = queryWeight, product of:
                  6.7769065 = idf(docFreq=136, maxDocs=44218)
                  0.024215192 = queryNorm
                0.29949978 = fieldWeight in 91, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  6.7769065 = idf(docFreq=136, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
        0.008312015 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.008312015 = score(doc=91,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.15487336 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.021773845 = product of:
          0.04354769 = sum of:
            0.04354769 = weight(_text_:didaktik in 91) [ClassicSimilarity], result of:
              0.04354769 = score(doc=91,freq=4.0), product of:
                0.18369676 = queryWeight, product of:
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.024215192 = queryNorm
                0.23706292 = fieldWeight in 91, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  7.5860133 = idf(docFreq=60, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
        0.008443035 = weight(_text_:der in 91) [ClassicSimilarity], result of:
          0.008443035 = score(doc=91,freq=20.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.1560892 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.008312015 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.008312015 = score(doc=91,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.15487336 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.008312015 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.008312015 = score(doc=91,freq=20.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.15487336 = fieldWeight in 91, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=91)
        0.0046397857 = product of:
          0.0092795715 = sum of:
            0.0092795715 = weight(_text_:22 in 91) [ClassicSimilarity], result of:
              0.0092795715 = score(doc=91,freq=4.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.109432176 = fieldWeight in 91, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=91)
          0.5 = coord(1/2)
      0.4 = coord(8/20)
    
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    303.48/33 22 (LoC)
    AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
    MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
    SR 850 Informatik / Nachschlagewerke. Didaktik / Allgemeines, Nachschlagewerke, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    DDC
    303.48/33 22 (LoC)
    RVK
    AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
    MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
    SR 850 Informatik / Nachschlagewerke. Didaktik / Allgemeines, Nachschlagewerke, Ausbildung / Gesellschaftliche Folgen der Datenverarbeitung
  2. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.04
    0.035174437 = product of:
      0.10049839 = sum of:
        0.01390866 = weight(_text_:und in 6123) [ClassicSimilarity], result of:
          0.01390866 = score(doc=6123,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.25915268 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.024174193 = weight(_text_:geschichte in 6123) [ClassicSimilarity], result of:
          0.024174193 = score(doc=6123,freq=2.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.21004607 = fieldWeight in 6123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.01390866 = weight(_text_:und in 6123) [ClassicSimilarity], result of:
          0.01390866 = score(doc=6123,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.25915268 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.014127901 = weight(_text_:der in 6123) [ClassicSimilarity], result of:
          0.014127901 = score(doc=6123,freq=14.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2611872 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.01390866 = weight(_text_:und in 6123) [ClassicSimilarity], result of:
          0.01390866 = score(doc=6123,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.25915268 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.01390866 = weight(_text_:und in 6123) [ClassicSimilarity], result of:
          0.01390866 = score(doc=6123,freq=14.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.25915268 = fieldWeight in 6123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6123)
        0.006561648 = product of:
          0.013123296 = sum of:
            0.013123296 = weight(_text_:22 in 6123) [ClassicSimilarity], result of:
              0.013123296 = score(doc=6123,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.15476047 = fieldWeight in 6123, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6123)
          0.5 = coord(1/2)
      0.35 = coord(7/20)
    
    Date
    22.10.2006 10:22:33
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  3. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.03
    0.032243747 = product of:
      0.107479155 = sum of:
        0.017211089 = weight(_text_:und in 2015) [ClassicSimilarity], result of:
          0.017211089 = score(doc=2015,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3206851 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.02115242 = weight(_text_:geschichte in 2015) [ClassicSimilarity], result of:
          0.02115242 = score(doc=2015,freq=2.0), product of:
            0.11508996 = queryWeight, product of:
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.024215192 = queryNorm
            0.18379031 = fieldWeight in 2015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7528 = idf(docFreq=1036, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.017211089 = weight(_text_:und in 2015) [ClassicSimilarity], result of:
          0.017211089 = score(doc=2015,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3206851 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.017482383 = weight(_text_:der in 2015) [ClassicSimilarity], result of:
          0.017482383 = score(doc=2015,freq=28.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.32320264 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.017211089 = weight(_text_:und in 2015) [ClassicSimilarity], result of:
          0.017211089 = score(doc=2015,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3206851 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
        0.017211089 = weight(_text_:und in 2015) [ClassicSimilarity], result of:
          0.017211089 = score(doc=2015,freq=28.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3206851 = fieldWeight in 2015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2015)
      0.3 = coord(6/20)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  4. Koch, W.; Schmiede, R.: Beyond Global Info : The Digital Library-Forum (2001) 0.03
    0.032065447 = product of:
      0.12826179 = sum of:
        0.026284898 = weight(_text_:und in 5838) [ClassicSimilarity], result of:
          0.026284898 = score(doc=5838,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 5838, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5838)
        0.026284898 = weight(_text_:und in 5838) [ClassicSimilarity], result of:
          0.026284898 = score(doc=5838,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 5838, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5838)
        0.023122204 = weight(_text_:der in 5838) [ClassicSimilarity], result of:
          0.023122204 = score(doc=5838,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.42746788 = fieldWeight in 5838, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5838)
        0.026284898 = weight(_text_:und in 5838) [ClassicSimilarity], result of:
          0.026284898 = score(doc=5838,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 5838, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5838)
        0.026284898 = weight(_text_:und in 5838) [ClassicSimilarity], result of:
          0.026284898 = score(doc=5838,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.48975256 = fieldWeight in 5838, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5838)
      0.25 = coord(5/20)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  5. Lande, D.; Braichevski, S.; Busch, D.: Informationsflüsse im Internet (2007) 0.03
    0.029480055 = product of:
      0.11792022 = sum of:
        0.023509927 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.023509927 = score(doc=628,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
        0.023509927 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.023509927 = score(doc=628,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
        0.02388051 = weight(_text_:der in 628) [ClassicSimilarity], result of:
          0.02388051 = score(doc=628,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.44148692 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
        0.023509927 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.023509927 = score(doc=628,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
        0.023509927 = weight(_text_:und in 628) [ClassicSimilarity], result of:
          0.023509927 = score(doc=628,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.438048 = fieldWeight in 628, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=628)
      0.25 = coord(5/20)
    
    Abstract
    Im Artikel geht es um Entwicklungstrends und Probleme, die mit dem schnellen Informationszuwachs im Internet verbunden sind. Es wird gezeigt, dass die Hauptschwierigkeiten nicht mit der Leistung von Software und der Hardware, sondern mit Besonderheiten des Sachgebietes zusammen hängen. Im Rahmen des Konzeptes der Informationsflüsse werden aktuelle Probleme des Information Retrieval, der Strukturierung des Informationsraums und dessen Verhältnis zum semantischen Raum behandelt. Der Artikel zeigt einige Lösungen dieser Probleme, die auf dem Textmining und fraktalen Modellen basieren.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.277-284
  6. Digital libraries : policy, planning and practice (2004) 0.03
    0.027473759 = product of:
      0.109895036 = sum of:
        0.022303475 = weight(_text_:und in 3587) [ClassicSimilarity], result of:
          0.022303475 = score(doc=3587,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 3587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
        0.022303475 = weight(_text_:und in 3587) [ClassicSimilarity], result of:
          0.022303475 = score(doc=3587,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 3587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
        0.02068113 = weight(_text_:der in 3587) [ClassicSimilarity], result of:
          0.02068113 = score(doc=3587,freq=30.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3823389 = fieldWeight in 3587, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
        0.022303475 = weight(_text_:und in 3587) [ClassicSimilarity], result of:
          0.022303475 = score(doc=3587,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 3587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
        0.022303475 = weight(_text_:und in 3587) [ClassicSimilarity], result of:
          0.022303475 = score(doc=3587,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 3587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3587)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
    Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
  7. Rösch, H.: Entwicklungsstand und Qualitätsmanagement digitaler Auskunft in Bibliotheken (2007) 0.03
    0.027116746 = product of:
      0.10846698 = sum of:
        0.022303475 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.022303475 = score(doc=400,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.022303475 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.022303475 = score(doc=400,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.019253083 = weight(_text_:der in 400) [ClassicSimilarity], result of:
          0.019253083 = score(doc=400,freq=26.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.35593814 = fieldWeight in 400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.022303475 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.022303475 = score(doc=400,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
        0.022303475 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.022303475 = score(doc=400,freq=36.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.41556883 = fieldWeight in 400, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=400)
      0.25 = coord(5/20)
    
    Abstract
    Zunächst wird die aktuelle Bedeutung digitaler Auskunft in der Informationsgesellschaft angesprochen. Anschließend folgt ein Überblick über den bislang erreichten Entwicklungsstand dieser relativ neuen Dienstleistung. Dabei werden die Vor- und Nachteile der technischen und organisatorischen Varianten erläutert. Schließlich richtet sich der Blick auf Qualitätskriterien zur Bewertung und Verbesserung digitaler Auskunft in der Praxis.
    Content
    "Die Ursprünge digitaler Auskunft reichen zurück in die 1980er Jahre. Aus bescheidenen Anfängen hat sich inzwischen eine bibliothekarische Standarddienstleistung entwickelt. Mit dem digitalen Umbruch stellten die Bibliotheken zunächst ihre Kataloge im Web für die Recherche bereit und boten FAQs zur Beantwortung von Standardfragen an. Um den vollen Umfang bibliothekarischer Dienstleistungen im Internet präsentieren zu können, bedurfte es darüber hinaus der Entwicklung eines Äquivalents für die klassische Auskunft im WWW. Die Entwicklung von digitaler Auskunft drängte sich aber nicht nur aus diesem Grund auf; das Web veränderte (und verändert) zudem die Informationskultur der Kunden; diese erwarten schnelleren und einfacheren Service. Alles soll so unmittelbar und so unkompliziert recherchierbar sein, wie man es von Google, Yahoo und anderen gewohnt ist. Außerdem hat die bibliothekarische Auskunft mit "Yahoo Clever" oder "Lycos IQ" kommerzielle Konkurrenten erhalten. Digitale Auskunft musste also als Antwort auf die Herausforderungen der kommerziellen Konkurrenz und der veränderten Benutzergewohnheiten schnell entwickelt werden. Denn nur so konnte und kann rechtzeitig unter Beweis gestellt werden, dass Bibliotheken für viele Auskunftsfälle gegenüber Suchmaschinen und Webkatalogen einen ungeheueren Vorteil besitzen: Die klassische und damit auch die digitale Auskunft zielt nicht darauf, die Fragen zu beantworten, die Benutzer stellen, sondern (idealerweise) darauf, ihnen die Informationen zu verschaffen, die sie tatsächlich benötigen.
    Schon in der ersten Hälfte des 20. Jahrhunderts war in der Praxis des Auskunftsdienstes in den USA bekannt geworden, dass Benutzer häufig nicht nach dem fragen was sie eigentlich suchen, sondern meist allgemeine und nicht selten irreführende Fragen stellen. Dafür ist die Technik des Auskunftsinterviews entwickelt worden, um gemeinsam mit dem Kunden zu ermitteln, welche Informationen exakt gesucht werden. Während Suchmaschinen nur die syntaktische und (in Ausnahmefällen) die semantische Ebene der gestellten Frage abarbeiten können, vermag bibliothekarische Auskunft einer dritten, nämlich jener pragmatischen Dimension gerecht zu werden. Anders ausgedrückt: Suchmaschinen und andere Navigationsinstrumente des Internet arbeiten objektorientiert, digitale Auskunft durch bibliothekarische Experten hingegen erbringt subjekt- bzw. kundenorientierte Dienstleistungen. Bibliotheken mit elaborierter digitaler Auskunft sind den Herausforderungen der Informationsgesellschaft damit gewachsen: ja sie sind noch unverzichtbarer als zuvor. Speziell in Deutschland allerdings ist es nicht damit getan, digitale Auskunft mit Engagement zu entwickeln. Darüber hinaus müssen große Anstrengungen unternommen werden, um die Leistungsfähigkeit dieser bibliothekarischen Dienstleistung in das Bewusstsein der realen und potentiellen Kunden zu rücken."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.4, S.197-202
  8. Vaughan, L.; Shaw, D.: Web citation data for impact assessment : a comparison of four science disciplines (2005) 0.03
    0.026149925 = product of:
      0.17433283 = sum of:
        0.05811094 = weight(_text_:biologie in 3880) [ClassicSimilarity], result of:
          0.05811094 = score(doc=3880,freq=2.0), product of:
            0.15960093 = queryWeight, product of:
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.024215192 = queryNorm
            0.36410153 = fieldWeight in 3880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3880)
        0.05811094 = weight(_text_:biologie in 3880) [ClassicSimilarity], result of:
          0.05811094 = score(doc=3880,freq=2.0), product of:
            0.15960093 = queryWeight, product of:
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.024215192 = queryNorm
            0.36410153 = fieldWeight in 3880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3880)
        0.05811094 = weight(_text_:biologie in 3880) [ClassicSimilarity], result of:
          0.05811094 = score(doc=3880,freq=2.0), product of:
            0.15960093 = queryWeight, product of:
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.024215192 = queryNorm
            0.36410153 = fieldWeight in 3880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.590942 = idf(docFreq=164, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3880)
      0.15 = coord(3/20)
    
    Field
    Biologie
  9. Lipow, A.G.: ¬The virtual reference librarian's handbook (2003) 0.03
    0.02592256 = product of:
      0.086408526 = sum of:
        0.0167534 = weight(_text_:und in 3992) [ClassicSimilarity], result of:
          0.0167534 = score(doc=3992,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3121572 = fieldWeight in 3992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.0167534 = weight(_text_:und in 3992) [ClassicSimilarity], result of:
          0.0167534 = score(doc=3992,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3121572 = fieldWeight in 3992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.015293901 = weight(_text_:der in 3992) [ClassicSimilarity], result of:
          0.015293901 = score(doc=3992,freq=42.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.28274342 = fieldWeight in 3992, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.0167534 = weight(_text_:und in 3992) [ClassicSimilarity], result of:
          0.0167534 = score(doc=3992,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3121572 = fieldWeight in 3992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.0167534 = weight(_text_:und in 3992) [ClassicSimilarity], result of:
          0.0167534 = score(doc=3992,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3121572 = fieldWeight in 3992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=3992)
        0.00410103 = product of:
          0.00820206 = sum of:
            0.00820206 = weight(_text_:22 in 3992) [ClassicSimilarity], result of:
              0.00820206 = score(doc=3992,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.09672529 = fieldWeight in 3992, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3992)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Date
    22. 3.2004 14:46:50
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
    Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
    Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
  10. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.02
    0.024007872 = product of:
      0.09603149 = sum of:
        0.019437945 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.019437945 = score(doc=2996,freq=70.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.019437945 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.019437945 = score(doc=2996,freq=70.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.018279707 = weight(_text_:der in 2996) [ClassicSimilarity], result of:
          0.018279707 = score(doc=2996,freq=60.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.33794302 = fieldWeight in 2996, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.019437945 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.019437945 = score(doc=2996,freq=70.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
        0.019437945 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.019437945 = score(doc=2996,freq=70.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
    Das Buch besteht aus zwei Teilen: Section 1 - Accessibility and Why It Matters Section 2 - Strategies and Techniques for Maximum Accessibility Im ersten Teil geben die Autoren eine knappe Einführung, in der sie erläutern, was Accessibility bedeutet, und stellen die gesetzlichen Grundlagen in den USA vor. Daneben werfen sie aber auch einen kurzen Blick auf die Situation in Kanada, Australien, der Europäischen Union (EU) und Großbritannien (das interessanterweise nicht zur EU gezählt, sondern gesondert behandelt wird). Der Schwerpunkt USA und die dortige Gesetzeslage ist auch für Leser aus dem deutschsprachigen Raum durchaus interessant dargestellt, erlaubt er doch den Vergleich mit der gesetzlichen Lage in der EU, die durchaus nicht einheitlich ist-in einigen Staaten gelten die Vorschriften der Barrierefreiheit auch für kommerzielle Web-Angebote, z. B. in Großbritannien. In den weiteren Kapiteln wird ein breites Spektrum abgedeckt: Es werden verschiedene Initiatitiven zur Barrierefreiheit in den USA vorgestellt ebenso wie ein business case, der zeigt wie der return an Investment für Barrierefreiheit in einem konkreten Fall aussehen kann. Slatin und Rush gehen davon aus, dass Barrierefreiheit für jedes Unternehmen aus Geschäftsinteresse sinnvoll ist, weil immer mehr Menschen immer älter werden und damit die Wahrscheinlichkeit von körperlichen Beeinträchtigungen zunimmt. Dann liefern sie eine Reihe von Argumenten, warum sich Barrierefreiheit für Unternehmen rechnet. Im Anschluss geben sie einen Überblick, wie man WebSites auf Barrierefreiheit testet, wobei sie betonen, dass automatisierte Prüfwerkzeuge nur in Kombination mit einer Evaluation durch Gutachter bzw. UsabilityTests verwendet werden sollten. Allerdings, so räumen Slatin und Rush ein, helfen diese Werkzeuge und Methoden nicht, die absolute Barrierefreiheit für jeden einzelnen Benutzer oder unter allen Umständen zu erreichen. Anhand von Beispielen zeigen Slatin und Rush, dass Textversionen der Inhalte keine wirkliche Alternative zu tatsächlich barrierefreien Inhalten sind und wie Alternativen für die barrierefreie Präsentation multimedialer Inhalte zur Verfügung stehen. Im ersten Teil sind verschiedene Kapitel mit Erfahrungsberichte des blinden John Slatin eingebunden, die praxisbezogen und anschaulich zeigen, auf welche Probleme Blinde und Sehbehinderte im Web stoßen, so zum Beispiel - dass es für einen blinden Benutzer in der beschriebenen Version praktisch unmöglich war, bei der beschriebenen Version von Amazon online einzukaufen. - dass sich bei ÖPNV-Web-Angeboten trotz des Einsatzes assistiver Technologien wie beispielsweise eines Bildschirmvorleseprogramms (screen reader) erhebliche Probleme mit Tabellen ergeben, die durch ihre zweidimensionale Struktur zwar für die Wahrnehmung mit dem Auge geeignet sind, nicht aber für die Wahrnehmung mit dem Ohr. Allerdings zeigen Screenshots, dass einige dieser Fahrpläne auch sehende Benutzer vor visuelle und intellektuelle Herausforderungen stellen, weil ihr Informationsdesign schlecht gemacht ist.
    - dass der Zugriff auf verschiedene bekannte Museums-Web-Sites durchdie eingesetzten Programmiertechniken effektiv verhindert wird, weil bestimmte Funktionen für ein Bildschirmvorleseprogramm oder eine Braillezeile nicht darstellbar sind. Dazu gehören unter anderem: die beschriebenen Flash-Animationen, automatische refreshs und redirects, server-side image maps. Weitere Problempunkte sind inkonsistentes Design und die sequenzielle Anordnung der Texte, die in einer Reihenfolge vorgelesen werden, die nicht der logischen Struktur entspricht. Verschiedene Kapitel im zweiten Teil bieten eine stark technisch ausgerichtete Handreichung, wie Inhalte und HTMLCode von Web-Angeboten barrierefrei gestaltet werden können. Slatin und Rush behandeln unter anderem folgende Aspekte: - wie Alternativtexte und Langbeschreibungstexte sinnvoll eingesetzt werden und wo besser auf sie verzichtet wird - wie visuelle Inhalte von Grafiken für Blinde sinnvoll und ansprechend beschrieben werden - welche Rolle die Vorlesereihenfolge spielt - welche Alternativen es für textuelle Beschreibungen gibt - wie HTML-Eingabeformulare und HTML-Tabellen barrierefrei gestaltet werden können - dass PDF-Dokumente nicht per se zugänglich sind und wie sie gestaltet werden müssen, damit sie tatsächlich barrierefrei sind - wie Multimedia-Material aufbereitet werden muss - wie Cascading Style Sheets eingesetzt werden können Das Buch zeichnet sich durch ein leicht lesbares Englisch und einen gut verständlichen Stil aus. Die zahlreichen Beispiele aus dem Web-Alltag machen es interessant zu lesen und geben ihm einen hohen Praxisbezug. Die Bezugnahme auf die Richtlinien der Web Accessibility Initiative (WAI) des World Wide Web Consortiums und auf die U.S. Section 508 ziehen sich wie ein roter Faden durch das Buch. Bereits die Einführung enthält eine übersichtliche Tabelle, welche die WAIRichtlinien und die Section 508 den Buchkapiteln gegenüberstellt, in denen sie behandelt werden. Jedes Kapitel listet am Anfang nochmals die WAI-Richtlinien und Absätze der Section 508 auf, die dort vertieft behandelt werden. Darüber hinaus wird dem Leser in sogenannten user experience chapters aus der Perspektive des blinden John Slatin als Betroffenem ebenso einfühlsam wie praxisbezogen nahegebracht, mit welchen Problemen Menschen mit Behinderungen im Web konfrontiert werden. Dies hilft auf anschauliche Weise, das Bewusstsein für die Notwendigkeit von Barrierefreiheit zu wecken, ohne dass der moralische Zeigefinger erhoben wird. Diese Aspekte machen die Lektüre des Buchs gleichermaßen lehrreich wie angenehm."
  11. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.02
    0.022835152 = product of:
      0.09134061 = sum of:
        0.018210711 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.018210711 = score(doc=2787,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.018210711 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.018210711 = score(doc=2787,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.018497765 = weight(_text_:der in 2787) [ClassicSimilarity], result of:
          0.018497765 = score(doc=2787,freq=24.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.34197432 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.018210711 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.018210711 = score(doc=2787,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
        0.018210711 = weight(_text_:und in 2787) [ClassicSimilarity], result of:
          0.018210711 = score(doc=2787,freq=24.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33931053 = fieldWeight in 2787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2787)
      0.25 = coord(5/20)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  12. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.02
    0.020750936 = product of:
      0.083003744 = sum of:
        0.01703456 = weight(_text_:und in 3198) [ClassicSimilarity], result of:
          0.01703456 = score(doc=3198,freq=84.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31739593 = fieldWeight in 3198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
        0.01703456 = weight(_text_:und in 3198) [ClassicSimilarity], result of:
          0.01703456 = score(doc=3198,freq=84.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31739593 = fieldWeight in 3198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
        0.014865498 = weight(_text_:der in 3198) [ClassicSimilarity], result of:
          0.014865498 = score(doc=3198,freq=62.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2748234 = fieldWeight in 3198, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
        0.01703456 = weight(_text_:und in 3198) [ClassicSimilarity], result of:
          0.01703456 = score(doc=3198,freq=84.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31739593 = fieldWeight in 3198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
        0.01703456 = weight(_text_:und in 3198) [ClassicSimilarity], result of:
          0.01703456 = score(doc=3198,freq=84.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.31739593 = fieldWeight in 3198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=3198)
      0.25 = coord(5/20)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
    Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  13. Hedden, H.: Indexing specialities : Web Sites (2007) 0.02
    0.02038445 = product of:
      0.0815378 = sum of:
        0.01625631 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.01625631 = score(doc=1146,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.01625631 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.01625631 = score(doc=1146,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.016512556 = weight(_text_:der in 1146) [ClassicSimilarity], result of:
          0.016512556 = score(doc=1146,freq=34.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.30527312 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.01625631 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.01625631 = score(doc=1146,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
        0.01625631 = weight(_text_:und in 1146) [ClassicSimilarity], result of:
          0.01625631 = score(doc=1146,freq=34.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3028952 = fieldWeight in 1146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1146)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  14. Günther, S.: Aufbruch in den virtuellen Raum : Anleitung zum Aufbau eines Web Contact Centers (2005) 0.02
    0.020123536 = product of:
      0.06707845 = sum of:
        0.011381695 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.011381695 = score(doc=4207,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 4207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.011381695 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.011381695 = score(doc=4207,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 4207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.013349611 = weight(_text_:der in 4207) [ClassicSimilarity], result of:
          0.013349611 = score(doc=4207,freq=8.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2467987 = fieldWeight in 4207, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.011381695 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.011381695 = score(doc=4207,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 4207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.011381695 = weight(_text_:und in 4207) [ClassicSimilarity], result of:
          0.011381695 = score(doc=4207,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.21206908 = fieldWeight in 4207, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4207)
        0.00820206 = product of:
          0.01640412 = sum of:
            0.01640412 = weight(_text_:22 in 4207) [ClassicSimilarity], result of:
              0.01640412 = score(doc=4207,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.19345059 = fieldWeight in 4207, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4207)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Abstract
    Die Weiten des Internet tendieren ins Unendliche - kaum etwas, was dort nicht vorhanden zu sein scheint. Google rühmt sich, dass jetzt die Suche auf über acht Milliarden Websites möglich ist und hat mit dem Einscannen der Bestände von US-amerikanischen und englischen Bibliotheken schon das nächste größere Projekt in Angriff genommen. Auch Microsoft schickt sich an, eine ernstzunehmende Konkurrenz in Sachen Internetrecherche zu werden. Hinzu kommt, dass das Internet eine immer größere Nutzung erfährt, 2004 lag diese bei 55,3 Prozent der Bevölkerung ab 14 Jahren - doch das alles heißt nicht, dass die Nutzer 3 im Gegenzug auch immer bessere Recherchefähigkeiten aufweisen. Es vergeht kein Tag, an dem im Informationsdienst von Bibliotheken nicht der Satz »Im Internet habe ich schon geguckt, dafind ich nix!« fällt. 100.000 Treffer zu einer Suchanfrage zu erhalten ist nicht die Kunst, aber fünf relevante Treffer zu erhalten, die noch dazu einer kritischen Bewertung standhalten (Stichwort »Information Literacy«), das bedarf eines professionellen Informationsvermittlers - eines Bibliothekars! Noch nie waren so viele Nutzer im Netz und zugleich so viele so unzufrieden. Wäre es nicht Aufgabe der Bibliotheken diese (potenziellen) Kunden aufzufangen, bevor sie in den Weiten des Internet verloren gehen? Dieses Auffangnetz existiert bereits - bekannt als Digital Reference Service, gebündelt durch die Funktionen, die das Web Contact Center bereit hält.
    Date
    22. 9.2005 20:50:31
  15. Clyde, L.A.: Weblogs and libraries (2004) 0.02
    0.019675499 = product of:
      0.078701995 = sum of:
        0.01658502 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
          0.01658502 = score(doc=4496,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3090199 = fieldWeight in 4496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
        0.01658502 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
          0.01658502 = score(doc=4496,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3090199 = fieldWeight in 4496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
        0.012361913 = weight(_text_:der in 4496) [ClassicSimilarity], result of:
          0.012361913 = score(doc=4496,freq=14.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2285388 = fieldWeight in 4496, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
        0.01658502 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
          0.01658502 = score(doc=4496,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3090199 = fieldWeight in 4496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
        0.01658502 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
          0.01658502 = score(doc=4496,freq=26.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.3090199 = fieldWeight in 4496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4496)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
    Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
  16. Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007) 0.02
    0.019029116 = product of:
      0.076116465 = sum of:
        0.0146937035 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=797,freq=40.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
        0.0146937035 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=797,freq=40.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
        0.017341653 = weight(_text_:der in 797) [ClassicSimilarity], result of:
          0.017341653 = score(doc=797,freq=54.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3206009 = fieldWeight in 797, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
        0.0146937035 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=797,freq=40.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
        0.0146937035 = weight(_text_:und in 797) [ClassicSimilarity], result of:
          0.0146937035 = score(doc=797,freq=40.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.27378 = fieldWeight in 797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=797)
      0.25 = coord(5/20)
    
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
    Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
  17. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.02
    0.01873662 = product of:
      0.07494648 = sum of:
        0.014321651 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.014321651 = score(doc=1418,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26684773 = fieldWeight in 1418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.014321651 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.014321651 = score(doc=1418,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26684773 = fieldWeight in 1418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.017659876 = weight(_text_:der in 1418) [ClassicSimilarity], result of:
          0.017659876 = score(doc=1418,freq=56.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.326484 = fieldWeight in 1418, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.014321651 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.014321651 = score(doc=1418,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26684773 = fieldWeight in 1418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
        0.014321651 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.014321651 = score(doc=1418,freq=38.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26684773 = fieldWeight in 1418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1418)
      0.25 = coord(5/20)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  18. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.02
    0.017871225 = product of:
      0.0714849 = sum of:
        0.0141548505 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.0141548505 = score(doc=1832,freq=58.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.0141548505 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.0141548505 = score(doc=1832,freq=58.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.014865498 = weight(_text_:der in 1832) [ClassicSimilarity], result of:
          0.014865498 = score(doc=1832,freq=62.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.2748234 = fieldWeight in 1832, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.0141548505 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.0141548505 = score(doc=1832,freq=58.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
        0.0141548505 = weight(_text_:und in 1832) [ClassicSimilarity], result of:
          0.0141548505 = score(doc=1832,freq=58.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.26373982 = fieldWeight in 1832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1832)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  19. Harms, I.; Schweibenz, W.: Usability engineering methods for the Web (2000) 0.02
    0.017126365 = product of:
      0.06850546 = sum of:
        0.013658034 = weight(_text_:und in 5482) [ClassicSimilarity], result of:
          0.013658034 = score(doc=5482,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
        0.013658034 = weight(_text_:und in 5482) [ClassicSimilarity], result of:
          0.013658034 = score(doc=5482,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
        0.013873324 = weight(_text_:der in 5482) [ClassicSimilarity], result of:
          0.013873324 = score(doc=5482,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.25648075 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
        0.013658034 = weight(_text_:und in 5482) [ClassicSimilarity], result of:
          0.013658034 = score(doc=5482,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
        0.013658034 = weight(_text_:und in 5482) [ClassicSimilarity], result of:
          0.013658034 = score(doc=5482,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.2544829 = fieldWeight in 5482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5482)
      0.25 = coord(5/20)
    
    Content
    Der Beitrag präsentiert eine Studie über Evaluationsmethoden zur WebUsability. Er beschreibt die "Heuristics for Web Communications" und berichtet von den praktischen Erfahrungen mit den Heuristiken, die mit dem "Keevil Index" verglichen und mit Benutzertests mit lautem Denken kombiniert werden. Das Ergebnis zeigt, dass eine Evaluation mit den beschriebenen Heuristiken gegenüber dem "Keevil Index" mehr Zeit und Aufwand erfordert, aber konsistentere Ergebnisse bringt. Die Heuristiken haben sich sowohl in der experten-zentrierten Evaluation als auch in Kombination mit dem Benutzertest insgesamt als geeignete Evaluationsmethode erwiesen
    Source
    Informationskompetenz - Basiskompetenz in der Informationsgesellschaft: Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000), Hrsg.: G. Knorz u. R. Kuhlen
  20. Research and advanced technology for digital libraries : 10th European conference ; proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006 ; proceedings (2006) 0.02
    0.016187198 = product of:
      0.053957324 = sum of:
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.005339844 = weight(_text_:der in 2428) [ClassicSimilarity], result of:
          0.005339844 = score(doc=2428,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.09871948 = fieldWeight in 2428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.006561648 = product of:
          0.013123296 = sum of:
            0.013123296 = weight(_text_:22 in 2428) [ClassicSimilarity], result of:
              0.013123296 = score(doc=2428,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.15476047 = fieldWeight in 2428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2428)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Content
    Inhalt u.a.: Architectures I Preservation Retrieval - The Use of Summaries in XML Retrieval / Zoltdn Szldvik, Anastasios Tombros, Mounia Laimas - An Enhanced Search Interface for Information Discovery from Digital Libraries / Georgia Koutrika, Alkis Simitsis - The TIP/Greenstone Bridge: A Service for Mobile Location-Based Access to Digital Libraries / Annika Hinze, Xin Gao, David Bainbridge Architectures II Applications Methodology Metadata Evaluation User Studies Modeling Audiovisual Content Language Technologies - Incorporating Cross-Document Relationships Between Sentences for Single Document Summarizations / Xiaojun Wan, Jianwu Yang, Jianguo Xiao - Semantic Web Techniques for Multiple Views on Heterogeneous Collections: A Case Study / Marjolein van Gendt, Antoine Isaac, Lourens van der Meij, Stefan Schlobach Posters - A Tool for Converting from MARC to FRBR / Trond Aalberg, Frank Berg Haugen, Ole Husby
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science

Types

Subjects

Classifications