Search (39 results, page 1 of 2)

  • × classification_ss:"06.74 / Informationssysteme"
  1. Medienkompetenz : wie lehrt und lernt man Medienkompetenz? (2003) 0.01
    0.010971943 = product of:
      0.027429856 = sum of:
        0.010614089 = product of:
          0.031842265 = sum of:
            0.031842265 = weight(_text_:f in 2249) [ClassicSimilarity], result of:
              0.031842265 = score(doc=2249,freq=4.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.24911162 = fieldWeight in 2249, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2249)
          0.33333334 = coord(1/3)
        0.016815767 = product of:
          0.033631533 = sum of:
            0.016251482 = weight(_text_:einer in 2249) [ClassicSimilarity], result of:
              0.016251482 = score(doc=2249,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.14965148 = fieldWeight in 2249, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2249)
            0.01738005 = weight(_text_:22 in 2249) [ClassicSimilarity], result of:
              0.01738005 = score(doc=2249,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.15476047 = fieldWeight in 2249, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2249)
          0.5 = coord(2/4)
      0.4 = coord(2/5)
    
    Abstract
    Die Vermittlung von Informationskompetenz wird künftig zu den Kernaufgaben der Bibliotheken gehören müssen. Dies ist auch eines der Hauptarbeitsfelder des Rezensenten, der aus eigener Praxis sieht, welche Schwierigkeiten sich hierbei finden: Viele Klienten erkennen ihren eigenen Informationsbedarf nicht, können ein fachliches nicht von einem informatorischen Problem trennen, sind nicht in der Lage, für ihr spezifisches Problem potenzielle Informationsquellen zu finden und haben vor allem Probleme, die Verbindung zwischen elektronischer und gedruckter WeIt zu schaffen, die somit praktisch unverbunden nebeneinander existieren (vgl. Rainer Strzolka: Vermittlung von Informationskompetenz als Informationsdienstleistung? Vortrag, FH Köln, Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft, am 31. Oktober 2003). Der Brückenschlag zwischen diesen beiden Welten gehört zu den Aufgaben professioneller Informationsvermittler, die nicht nur in der Digitalwelt firm sein müssen, aber auch dort. Nicht zuletzt müssen die gefundenen Informationen ergebnisorientiert genutzt und kritisch bewertet werden und die gefundenen Antworten zur Problemlösung eingesetzt werden. Die Informationslandschaft ist mit ihren verschiedenen Wissensmarktplätzen und Informationsräumen inzwischen so komplex geworden, dass eine kleine Handreichung dazu geeignet erscheint, vor allem die eigene Position des Informationsvermittlers zu überdenken. Zudem ist die aktive Informationsvermittlung noch ein dürres Feld in Deutschland. Die vorliegende kleine Erfahrungsstudie schickt sich an, dies zu ändern. Der Ansatz geht davon aus, dass jeder Vermittler von Medienkompetenz Lehrer wie Lernender zugleich ist; die Anlage ist wie bei allen BibSpider-Publikationen international ausgerichtet. Der Band ist komplett zweisprachig und versammelt Erfahrungsberichte aus der Bundesrepublik Deutschland, den USA und Südafrika, die eher als Ansatz zur Bewusstseinsbildung denn als Arbeitsanleitung gedacht sind. Eingeleitet wird der Band von einer terminologischen Herleitung des Begriffs aus dem Angelsächsischen und den verschiedenen Bedeutungsebenen, die durch unterschiedliche Bildungs- und Informationskulturen bedingt sind. Angerissen werden verschiedene Arbeitsgebiete und -erfahrungen.
    Classification
    F 340
    Date
    22. 3.2008 18:05:16
    KAB
    F 340
  2. Thissen, F.: Screen-Design-Handbuch : Effektiv informieren und kommunizieren mit Multimedia (2001) 0.01
    0.0071101836 = product of:
      0.01777546 = sum of:
        0.011257941 = product of:
          0.03377382 = sum of:
            0.03377382 = weight(_text_:f in 1781) [ClassicSimilarity], result of:
              0.03377382 = score(doc=1781,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.26422277 = fieldWeight in 1781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1781)
          0.33333334 = coord(1/3)
        0.006517519 = product of:
          0.026070075 = sum of:
            0.026070075 = weight(_text_:22 in 1781) [ClassicSimilarity], result of:
              0.026070075 = score(doc=1781,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.23214069 = fieldWeight in 1781, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1781)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Date
    22. 3.2008 14:35:21
  3. Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003) 0.01
    0.0059251534 = product of:
      0.014812883 = sum of:
        0.009381617 = product of:
          0.028144851 = sum of:
            0.028144851 = weight(_text_:f in 1397) [ClassicSimilarity], result of:
              0.028144851 = score(doc=1397,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22018565 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
          0.33333334 = coord(1/3)
        0.0054312656 = product of:
          0.021725062 = sum of:
            0.021725062 = weight(_text_:22 in 1397) [ClassicSimilarity], result of:
              0.021725062 = score(doc=1397,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.19345059 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Date
    22. 3.2008 14:29:25
  4. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.0057840827 = product of:
      0.014460206 = sum of:
        0.009381617 = product of:
          0.028144851 = sum of:
            0.028144851 = weight(_text_:f in 2789) [ClassicSimilarity], result of:
              0.028144851 = score(doc=2789,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22018565 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.33333334 = coord(1/3)
        0.005078588 = product of:
          0.020314353 = sum of:
            0.020314353 = weight(_text_:einer in 2789) [ClassicSimilarity], result of:
              0.020314353 = score(doc=2789,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18706435 = fieldWeight in 2789, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2789)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
  5. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.00
    0.0039077587 = product of:
      0.009769397 = sum of:
        0.0046908087 = product of:
          0.014072426 = sum of:
            0.014072426 = weight(_text_:f in 42) [ClassicSimilarity], result of:
              0.014072426 = score(doc=42,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.110092826 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=42)
          0.33333334 = coord(1/3)
        0.005078588 = product of:
          0.020314353 = sum of:
            0.020314353 = weight(_text_:einer in 42) [ClassicSimilarity], result of:
              0.020314353 = score(doc=42,freq=8.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18706435 = fieldWeight in 42, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=42)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Editor
    Crestani, F. u. I. Ruthven
    Footnote
    Am interessantesten und wichtigsten erschien mir der Grundsatzartikel von Peter Ingwersen und Kalervo Järvelin (Kopenhagen/Tampere), The sense of information: Understanding the cognitive conditional information concept in relation to information acquisition (S. 7-19). Hier versuchen die Autoren, den ursprünglich von Ingwersen1 vorgeschlagenen und damals ausschliesslich im Zusammenhang mit dem interaktiven Information Retrieval verwendeten Begriff "conditional cognitive information" anhand eines erweiterten Modells nicht nur auf das Gesamtgebiet von "information seeking and retrieval" (IS&R) auszuweiten, sondern auch auf den menschlichen Informationserwerb aus der Sinneswahrnehmung, wie z.B. im Alltag oder im Rahmen der wissenschaftlichen Erkenntnistätigkeit. Dabei werden auch alternative Informationsbegriffe sowie die Beziehung von Information und Bedeutung diskutiert. Einen ebenfalls auf Ingwersen zurückgehenden Ansatz thematisiert der Beitrag von Birger Larsen (Kopenhagen), indem er sich mit dessen vor über 10 Jahren veröffentlichten2 Principle of Polyrepresentation befasst. Dieses beruht auf der Hypothese, wonach die Überlappung zwischen unterschiedlichen kognitiven Repräsentationen - nämlich jenen der Situation des Informationssuchenden und der Dokumente - zur Reduktion der einer Retrievalsituation anhaftenden Unsicherheit und damit zur Verbesserung der Performance des IR-Systems genutzt werden könne. Das Prinzip stellt die Dokumente, ihre Autoren und Indexierer, aber auch die sie zugänglich machende IT-Lösung in einen umfassenden und kohärenten theoretischen Bezugsrahmen, der die benutzerorientierte Forschungsrichtung "Information-Seeking" mit der systemorientierten IR-Forschung zu integrieren trachtet. Auf der Basis theoretischer Überlegungen sowie der (wenigen) dazu vorliegenden empirischen Studien hält Larsen das Model, das von Ingwersen sowohl für "exact match-IR" als auch für "best match-IR" intendiert war, allerdings schon in seinen Grundzügen für "Boolean" (d.h. "exact match"-orientiert) und schlägt ein "polyrepresentation continuum" als Verbesserungsmöglichkeit vor.
    Mehrere Beiträge befassen sich mit dem Problem der Relevanz. Erica Cosijn und Theo Bothma (Pretoria) argumentieren, dass für das Benutzerverhalten neben der thematischen Relevanz auch verschiedene andere Relevanzdimensionen eine Rolle spielen und schlagen auf der Basis eines (abermals auf Ingwersen zurückgehenden) erweiterten Relevanzmodells vor, dass IR-Systeme die Möglichkeit zur Abgabe auch kognitiver, situativer und sozio-kognitiver Relevanzurteile bieten sollten. Elaine Toms et al. (Kanada) berichten von einer Studie, in der versucht wurde, die schon vor 30 Jahren von Tefko Saracevic3 erstellten fünf Relevanzdimensionen (kognitiv, motivational, situativ, thematisch und algorithmisch) zu operationalisieren und anhand von Recherchen mit einer Web-Suchmaschine zu untersuchen. Die Ergebnisse zeigten, dass sich diese fünf Dimensionen in drei Typen vereinen lassen, die Benutzer, System und Aufgabe repräsentieren. Von einer völlig anderen Seite nähern sich Olof Sundin und Jenny Johannison (Boras, Schweden) der Relevanzthematik, indem sie einen kommunikationsorientierten, neo-pragmatistischen Ansatz (nach Richard Rorty) wählen, um Informationssuche und Relevanz zu analysieren, und dabei auch auf das Werk von Michel Foucault zurückgreifen. Weitere interessante Artikel befassen sich mit Bradford's Law of Scattering (Hjørland & Nicolaisen), Information Sharing and Timing (Widén-Wulff & Davenport), Annotations as Context for Searching Documents (Agosti & Ferro), sowie dem Nutzen von neuen Informationsquellen wie Web Links, Newsgroups und Blogs für die sozial- und informationswissenschaftliche Forschung (Thelwall & Wouters). In Summe liegt hier ein interessantes und anspruchsvolles Buch vor - inhaltlich natürlich nicht gerade einheitlich und geschlossen, doch dies darf man bei einem Konferenzband ohnedies nicht erwarten. Manche der abgedruckten Beiträge sind sicher nicht einfach zu lesen, lohnen aber die Mühe. Auch für Praktiker aus Bibliothek und Information ist einiges dabei, sofern sie sich für die wissenschaftliche Basis ihrer Tätigkeit interessieren. Fachlich einschlägige Spezial- und grössere Allgemeinbibliotheken sollten das Werk daher unbedingt führen.
  6. Theories of information behavior (2005) 0.00
    0.0026502123 = product of:
      0.0066255303 = sum of:
        0.003752647 = product of:
          0.011257941 = sum of:
            0.011257941 = weight(_text_:f in 68) [ClassicSimilarity], result of:
              0.011257941 = score(doc=68,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.08807426 = fieldWeight in 68, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.015625 = fieldNorm(doc=68)
          0.33333334 = coord(1/3)
        0.0028728833 = product of:
          0.011491533 = sum of:
            0.011491533 = weight(_text_:einer in 68) [ClassicSimilarity], result of:
              0.011491533 = score(doc=68,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.105819575 = fieldWeight in 68, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.015625 = fieldNorm(doc=68)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.90-93 (O. Oberhauser): "What a marvellous book! [dies vorwegnehmend als Quintessenz der folgenden Rezension und auch für den englischsprachigen Verlag gedacht]. Den drei Herausgeberinnen, die an den Universitäten von Washington (Seattle, WA), Missouri (Columbia, MO) und Western Ontario (London, Kanada) lehren, ist das seltene Kunststück geglückt, einen Band zu erstellen, der nicht nur als mustergültige Einführung in die Thematik human information behaviour zu dienen vermag, sondern gleichzeitig auch als Nachschlagewerk zu den vielfältigen theoretischen Ansätzen innerhalb dieser bedeutenden Teildisziplin der Informationswissenschaft herangezogen werden kann. Wie sie selbst in der Danksagung feststellen, ist das Buch "a collaborative work of the information behavior community" (S. xvii), wobei die editorische Leistung vor allem darin lag, 85 Beitragende aus zehn Ländern zu koordinieren bzw. zur Abfassung von 72 Artikeln von jeweils ähnlicher Länge (bzw. Knappheit und Kürze), Gestaltung und Lesbarkeit zu veranlassen. Unter diesen 85 Beitragenden ist im übrigen alles versammelt, was in dieser Teildisziplin Rang und Namen hat, mit Ausnahme der leider bereits verstorbenen Soziologin Elfreda A. Chatman, einer der einflussreichsten Theoretikerinnen im Bereich des Informationsverhaltens, deren Andenken das Buch auch gewidmet ist.
    Zusammenfassend möchte ich folgende Behauptung wagen: Wer dieses Buch gründlich studiert (und natürlich auch die zahlreichen Literaturhinweise verfolgt), kennt mehr oder weniger alles, was es zum Themenbereich Informationsverhalten - als Teildisziplin der Informationswissenschaft - zu wissen gibt. Kann man über ein Buch noch etwas Besseres sagen? Und kann man voraussehen, welche neuen metatheoretischen Ansätze mit einer solchen Gesamtschau noch gefunden können und werden? In formaler Hinsicht bietet der Verlag Information Today mit dem vorliegenden Buch einen ansprechend gestalteten Hardcover-Band ohne größere Mängel und mit einem dem Gebotenen angemessenen Preis. Von dem fast 30 Seiten langen kombinierten Namens- und Sachregister könnten manche europäischen Verlage - die diesbezüglich eher auf Einsparung setzen oder wenig professionelle Register anbieten - lernen, wie man derlei macht. Als fehlend könnte man vielleicht einen Anhang mit den Kurzbiographien aller Beitragenden empfinden, doch mag es verständlich erscheinen, dass dies angesichts deren großer Zahl auf eine Vorstellung der drei Herausgeberinnen beschränkt wurde. Nicht gefallen hat mir der wenig konsistente Zitierstil bei den bibliographischen Angaben, einschließlich der Mode, beim Zitieren von Zeitschriftenaufsätzen vorgeblich redundante Heftangaben wegzulassen. Über die Exaltation der dritten Herausgeberin, ihrem Vornamen (auch auf dem Titelblatt!) noch den Klammerausdruck "(E. F.)" hinzuzufügen, sei rasch der Mantel des Schweigens gebreitet. In Summe daher, wie schon eingangs festgestellt wurde, ein vorzügliches und sehr empfehlenswertes Buch."
  7. Webwissenschaft : eine Einführung (2010) 0.00
    0.0022712136 = product of:
      0.011356068 = sum of:
        0.011356068 = product of:
          0.04542427 = sum of:
            0.04542427 = weight(_text_:einer in 2870) [ClassicSimilarity], result of:
              0.04542427 = score(doc=2870,freq=10.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.4182886 = fieldWeight in 2870, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2870)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das World Wide Web unterscheidet sich strukturell erheblich von den traditionellen Medien und hat das Mediensystem von Grund auf verändert. Radikal sind die Auswirkungen der webtechnischen Innovation sowohl für die Medienlandschaft und die Gesellschaft als auch für diejenigen Wissenschaften, die sich mit Medien - deren Geschichte, Inhalten, Formen, Technik, Wirkungen usf. - befassen. In dieser Einführung werden vor diesem Hintergrund einerseits Forschungsfragen einer zukünftigen Webwissenschaft auf einer übergeordneten Ebene diskutiert, andererseits werden die Perspektiven der relevanten Bezugswissenschaften integriert.
    Content
    Inhalt: Ist das Web ein Medium? --Konrad Scherfer Warum und zu welchem Zweck benötigen wir eine Webwissenschaft? 31- Helmut Volpers 'Diese Site wird nicht mehr gewartet'. Medienanalytische Perspektiven in den Medienwechseln - Rainer Leschke Emergente Öffentlichkeit? Bausteine zu einer Theorie der Weböffentlichkeit - Christoph Ernst Das ICH im Web - Auswirkungen virtueller Identitäten auf soziale Beziehungen - Helmut Volpers / Karin Wunder Technikgeschichte des Webs - Tom Alby Visuelles Denken im Interaktions- und Webdesign - Cyrus Khazaeli Das fotografische Bild im Web - Anja Bohnhof / Kolja Kracht Qualität im Web - Interdisziplinäre Website-Bewertung - David Kratz Für eine neue Poesie der Neugier. Das Web verändert den Journalismus - nicht nur online - Mercedes Bunz Das Web braucht Spezialisten, keine Generalisten. Zur Notwendigkeit einer webspezifischen Professionalisierung in der Ausbildung - Petra Werner Online-Forschung im Web - Methodenschwerpunkte im Überblick - Simone Fühles-Ubach Im Spiel der Moden? - Das Web in der Wirtschaft, die Wirtschaft im Web - Jörg Hoewner Medizin im Web - Martina Waitz Das Web und das Medienrecht - Bernd Holznagel / Thorsten Ricke Suchmaschinenforschung im Kontext einer zukünftigen Webwissenschaft - Dirk Lewandowski
  8. Gebhardt, F.: Dokumentationssysteme (1981) 0.00
    0.0022515883 = product of:
      0.011257941 = sum of:
        0.011257941 = product of:
          0.03377382 = sum of:
            0.03377382 = weight(_text_:f in 1560) [ClassicSimilarity], result of:
              0.03377382 = score(doc=1560,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.26422277 = fieldWeight in 1560, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1560)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
  9. Franke, F; Klein, A.; Schüller-Zwierlein, A.: Schlüsselkompetenzen : Literatur recherchieren in Bibliotheken und Internet (2010) 0.00
    0.0015010588 = product of:
      0.007505294 = sum of:
        0.007505294 = product of:
          0.022515882 = sum of:
            0.022515882 = weight(_text_:f in 4721) [ClassicSimilarity], result of:
              0.022515882 = score(doc=4721,freq=2.0), product of:
                0.12782328 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03206978 = queryNorm
                0.17614852 = fieldWeight in 4721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4721)
          0.33333334 = coord(1/3)
      0.2 = coord(1/5)
    
  10. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.00
    0.0014074197 = product of:
      0.0070370985 = sum of:
        0.0070370985 = product of:
          0.028148394 = sum of:
            0.028148394 = weight(_text_:einer in 4731) [ClassicSimilarity], result of:
              0.028148394 = score(doc=4731,freq=6.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.25920397 = fieldWeight in 4731, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4731)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  11. Koch, J.H.: Unterstützung der Formierung und Analyse von virtuellen Communities (2003) 0.00
    0.0012188613 = product of:
      0.0060943062 = sum of:
        0.0060943062 = product of:
          0.024377225 = sum of:
            0.024377225 = weight(_text_:einer in 797) [ClassicSimilarity], result of:
              0.024377225 = score(doc=797,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22447723 = fieldWeight in 797, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.046875 = fieldNorm(doc=797)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Systeme, die den Informationsaustausch in Communities unterstützen, sind heute allgegenwärtig. Eine zielgerichtete Analyse solcher Communities ist allerdings nur schwer möglich, denn es gibt bislang kein Verfahren zur formalen Beschreibung virtueller Communities, auf dem aufbauend eine Analyse stattfinden könnte. Es wird ein Konzept vorgestellt, das die Brücke schlägt zwischen den natürlichsprachlichen Beschreibungen von virtuellen Communities in der Soziologie und der Psychologie, und einer formalen Beschreibung, wie sie für die zielgerichtete Software-Entwicklung nötig ist. Neben einem formalen Modell von virtuellen Communities wird ein komponentenbasierter Ansatz vorgestellt, der beschreibt, wie mit diesem Modell gezielt Unterstützungs- und Analysesysteme entwickelt werden können.
  12. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.00
    0.0012188613 = product of:
      0.0060943062 = sum of:
        0.0060943062 = product of:
          0.024377225 = sum of:
            0.024377225 = weight(_text_:einer in 4332) [ClassicSimilarity], result of:
              0.024377225 = score(doc=4332,freq=2.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.22447723 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  13. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.00
    0.0011491533 = product of:
      0.0057457667 = sum of:
        0.0057457667 = product of:
          0.022983067 = sum of:
            0.022983067 = weight(_text_:einer in 506) [ClassicSimilarity], result of:
              0.022983067 = score(doc=506,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.21163915 = fieldWeight in 506, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  14. nestor-Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung; [im Rahmen des Projektes: Nestor - Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland] / Georg-August-Universität Göttingen. (2009) 0.00
    0.0011491533 = product of:
      0.0057457667 = sum of:
        0.0057457667 = product of:
          0.022983067 = sum of:
            0.022983067 = weight(_text_:einer in 3715) [ClassicSimilarity], result of:
              0.022983067 = score(doc=3715,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.21163915 = fieldWeight in 3715, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3715)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Abstract
    Das nestor Handbuch "Eine kleine Enzyklopädie der digitalen Langzeitarchivierung" bietet einen aktuellen, breit gefächerten Überblick zum Themenbereich Langzeitarchivierung digitaler Objekte. Eine Vielzahl ausgewiesener Experten geben in Fachbeiträgen einen direkten Einstieg zu grundlegenden Fragestellungen. Darüber hinaus bieten sie in vielen Fällen einen vertiefenden Einblick in einzelne Aspekte der Langzeitarchivierung: von technischen und rechtlichen Bedingungen bis hin zu praktischen Vorüberlegungen für konkrete Archivierungsaktivitäten. Seit Frühjahr 2007 ist das Handbuch in einer Online-Version verfügbar und wird seitdem ständig weiterentwickelt. Die nun auch in gedruckter Form vorliegende Version 2.0 wurde neu strukturiert, um zusätzliche Themenfelder ergänzt und bislang schon vorhandene Beiträge wurden - wo fachlich geboten - überarbeitet. Ziel des Herausgeberkreises ist es, mit diesem Handbuch all jenen ein informatives Hilfsmittel an die Hand zu geben, die sich über das Thema Langzeitarchivierung aus einer deutschsprachigen Quelle informieren wollen -- gleich ob als Praktiker, Student, Wissenschaftler oder interessierter Leser.
  15. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.00
    0.0011356068 = product of:
      0.005678034 = sum of:
        0.005678034 = product of:
          0.022712136 = sum of:
            0.022712136 = weight(_text_:einer in 641) [ClassicSimilarity], result of:
              0.022712136 = score(doc=641,freq=10.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.2091443 = fieldWeight in 641, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
  16. Bleuel, J.: Online Publizieren im Internet : elektronische Zeitschriften und Bücher (1995) 0.00
    0.0010862531 = product of:
      0.0054312656 = sum of:
        0.0054312656 = product of:
          0.021725062 = sum of:
            0.021725062 = weight(_text_:22 in 1708) [ClassicSimilarity], result of:
              0.021725062 = score(doc=1708,freq=2.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.19345059 = fieldWeight in 1708, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1708)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Date
    22. 3.2008 16:15:37
  17. Information: Droge, Ware oder Commons? : Wertschöpfungs- und Transformationsprozesse auf den Informationsmärkten ; Proceedings des 11. Internationalen Symposiums für Informationswissenschaft (ISI 2009) ; Konstanz, 1. - 3. April 2009 / [Hochschulverband für Informationswissenschaft (HI) e.V., Konstanz] (2009) 0.00
    0.0010055092 = product of:
      0.0050275456 = sum of:
        0.0050275456 = product of:
          0.020110182 = sum of:
            0.020110182 = weight(_text_:einer in 2930) [ClassicSimilarity], result of:
              0.020110182 = score(doc=2930,freq=4.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18518426 = fieldWeight in 2930, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2930)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Content
    - Recherche und Web Rita Strebe: Empirische Untersuchung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web Teresa Märt!, Christa Womser-Hacker, Thomas Mandl: Mehrsprachige Suche in Social-Tagging-Systemen Christian Maaß, Dirk Lewandowski: Frage-Antwort-Dienste als alternativer Suchansatz? Jürgen Reischer: EXCERPT - a Within-Document Retrieval System Using Summarization Techniques - Fachportale - Open Access I Stefan Baerisch, Peter Mutschke, Maximilian Stempfliuber: Informationstechnologische Aspekte der Heterogenitätsbehandlung in Fachportalen Doris Bambey: Open Access in der Erziehungswissenschaft - Voraussetzungen und Modelle der Funktionsteilung und der Verwertung von Wissen Patrick Lay: Integration heterogener Anwendungen in Fachportalen am Beispiel Sowiport Martin Uhl, Erich Weichselgartner: Aufbau einer innovativen Publikations-Infrastrukrur für die europäische Psychologie
    - Fachportale - Open Access II Werner Dees, Marc Rittberger: Anforderungen an bibliographische Datenbanken in Hinblick auf szientometrische Analysen am Beispiel der FIS Bildung Literaturdatenbank Joachim Pfister, Thomas Weinhold, Hans-Dieter Zimmermann: Open Access in der Schweiz Jan Steinberg: Instrumente der Überzeugungsarbeit - Kollaboration, Partizipation Christina Bieber, Harald Kraemer, Jens M. Lill, Werner Schweibenz: Museum 2.0? Hans Giessen: Primingeffekte in einer Simulation computergestützten kooperativen Arbeitens Christoph Mandl, Christoph Pfeiffer, Christian Wolff: Partizipative Leitbildentwicklung und Hochschulkommunikation - Buchwirtschaft, Informationswirtschaft Hans-Dieter Zimmermann: Die Digitalisierung der Wertschöpfung auf dem Buchmarkt Christoph Bläsi: E-Books und die Stakeholder des Buches Karin Ludewig: Das Wissensobjekt im Zeitalter seiner digitalen Produzierbarkeit
  18. Jeanneney, J.-N.: Googles Herausforderung : Für eine europäische Bibliothek (2006) 0.00
    9.951959E-4 = product of:
      0.0049759797 = sum of:
        0.0049759797 = product of:
          0.019903919 = sum of:
            0.019903919 = weight(_text_:einer in 46) [ClassicSimilarity], result of:
              0.019903919 = score(doc=46,freq=12.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18328488 = fieldWeight in 46, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.015625 = fieldNorm(doc=46)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: Frankfurter Rundschau. Nr.66 vom 18.3.2006, S.17. (M. Meister): "Es ist eine kleine Kampfschrift, ein Pamphlet, geschrieben mit heißer, französischer Feder. Doch in Deutschland tut man es bereits ab: als Fortsetzung des müßigen Kulturkampfes zwischen Frankreich und Amerika, als "kulturkritisches Ressentiment". "Wo ist der Skandal", titelte die Süddeutsche Zeitung, als Jean-Noel Jeanneney sein Buch Googles Herausforderung unlängst in der französischen Botschaft in Berlin vorstellte. Man kann hierzulande nichts Böses darin erkennen, wenn die amerikanische Firma Google gemeinsam mit vier renommierten amerikanischen und der Universitätsbibliothek von Oxford innerhalb weniger Jahre 15 Millionen Bücher digitalisieren will. "So what", stöhnen die Deutschen, während die Franzosen auf die Barrikaden steigen. Aus französischer Perspektive verbirgt sich hinter dem im Winter 2004 angekündigten Projekt, "Google Print" mit Namen, tatsächlich ein kulturelles Schreckenszenario, dessen Folgen in der Öffentlichkeit breit diskutiert wurden. Von kultureller Hegemonie war die Rede, von der ewigen Dominanz der Amerikaner über die Europäer, sprich des Geldes über die Kultur. Der in Frankreich lebende Schriftsteller Alberto Manguel sah sogar den Albtraum seines Kollegen Jorge Louis Borges verwirklicht, der in seiner Erzählung Die Bibliothek von Babel genau davon geträumt hatte: eine Bibliothek, in der alles vorhanden ist, so viele Bücher, dass man kein einziges mehr wird finden können. Wo der Skandal ist? Nirgendwo, würde Jeanneney antworten. Denn darum geht es ihm tatsächlich nicht. Er plädiert vielmehr dafür, die Herausforderung anzunehmen, und Google das Feld nicht allein zu überlassen. Jeanneney, Leiter der französischen Nationalbibliothek und zweifellos Kenner der Materie, beschreibt deshalb eindringlich die Konsequenzen einer Digitalisierung des schriftlichen Kulturerbes unter amerikanisch-kommerziellem Monopol. Er hat diese kurze Kampfschrift, die soeben auf Deutsch bei Wagenbach erschienen ist, gewissermaßen als Flaschenpost benutzt, um die Verantwortlichen anderer Länder aufzurütteln und für ein gemeinsames Projekt zu gewinnen.
    Weitere Rez. in: ZfBB 53(2006) H.3/4, S.215-217 (M. Hollender): "Die Aversion des Präsidenten der Französischen Nationalbibliothek, Jean-Noël Jeanneney, gegen die Pläne von Google zur Massendigitalisierung kann nach der breiten Erörterung in der Tagespresse als zumindest in Grundzügen bekannt vorausgesetzt werden. Nunmehr liegt seine im März 2005 entstandene »Kampfschrift« (S.7) aktualisiert und mit einem Nachwort von Klaus-Dieter Lehmann versehen, auch in einer deutschen Übersetzung vor. So viel vorab: selten erhält man für 9,90 Euro so wenig und zugleich so viel: so viel Polemik, Selbstpreisgabe und Emphase und so wenig konkrete strategisch weiterführende Ideen. Dem Leser fällt vor allem der plumpe Antiamerikanismus, der dem gesamten Büchlein zugrunde liegt, über kurz oder lang unangenehm auf. Jeanneney moniert die »unvermeidliche amerikanische Ichbezogenheit« (S. 9). Wer aber mag es Google verdenken, sein Projekt zunächst mit angloamerikanischen Bibliotheken zu starten? Die Bereitschaft der britischen Boolean Library, ihre exzellenten Bestände vor 1900 von Google ebenfalls digitalisieren zu lassen, wird von Jeanneney im Stile einer Verschwörungstheorie kommentiert: »Wieder einmal wurde uns die altbekannte angloamerikanische Solidarität vorgeführt.« (S.19) Mit derselben Emphase könnte man sich darüber freuen, dass Google sich der Bestände hochbedeutender Forschungsbibliotheken versichert - nicht aber Jeanneney. Fazit: die »US-Dominanz, die mit einer mehr oder weniger bewussten Arroganz einhergeht«, bewirke, dass »alles, was der amerikanischen Weltsicht widerspricht, aussortiert« werde (S. 23). Wer derart voreingenommen wie Jeanneney an die Google-Pläne herangeht, verbaut sich selber die Chancen auf eine konstruktive und kooperative Lösung des Google-Problems. ...
    Es empfiehlt sich, an die Google-Vorhaben mit einer gehörigen Portion Unvoreingenommenheit heranzutreten und von einem Projekt, das noch in den Kinderschuhen steckt, keine Wunderdinge zu erwarten; unbestreitbare Leistungen aber auch als solche würdigend anzuerkennen. ... Das in Digitalisierungsfragen noch immer schläfrige, wenn nicht gar schlafende Europa, ist zweifellos zunächst von Google geweckt und anschließend von Jeanneney alarmiert worden. Jeanneney hat aus einem zunächst harmlos anmutenden privatwirtschaftlichen Vorhaben ein Politikum gemacht; dass er hierbei immer wieder über sein hehres Ziel einer europäischen Gegenoffensive hinausschießt, kann die Debatte nur beleben. Er wendet sich gegen den neoliberalen Glauben, die Kräfte des freien kapitalistischen Marktes seien in der Lage, allen Seiten gerecht zu werden, und fordert eine Dominanz des staatlichen Sektors, der zumindest komplementär tätig werden müsse, um die Auswüchse von Google gegensteuernd zu bremsen. Dort, wo Jeanneney die antiamerikanische Schelte verlässt und die europäische Antwort skizziert, zeigen sich seine Stärken. Google arbeitet zwar mit Bibliotheken zusammen, ob die Intensität dieser Kooperation aber ausreichend hoch ist, um bewährte bibliothekarische Standards verwirklichen zu können, ist zumindest fraglich. Die >Suchmaske> erlaubt keine spezifizierenden Anfragen; die formale Erschließung der digitalisierten Werke ist völlig unzureichend; eine inhaltliche Erschließung existiert nicht. Hier könnten die europäischen Bibliothekare in der Tat ihre spezifischen Kenntnisse einbringen und statt der von Jeanneney kritisierten Bereitstellung »zusammenhangsloser] Wissensfragmente« (S.14) eine Anreicherung der Digitalisate mit Metadaten anbieten, die das Datenmeer filtert. Wer aber - in der Bibliothekslandschaft sicherlich unstrittig - die exakte Katalogisierung der Digitalisate und ihre Einbindung in Bibliothekskataloge wünscht, damit die Bücher nicht nur über Google, sondern auch über die Portale und Katalogverbünde zugänglich sind, sollte auf Google zugehen, anstatt Google zu provozieren.
  19. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.00
    9.951959E-4 = product of:
      0.0049759797 = sum of:
        0.0049759797 = product of:
          0.019903919 = sum of:
            0.019903919 = weight(_text_:einer in 118) [ClassicSimilarity], result of:
              0.019903919 = score(doc=118,freq=12.0), product of:
                0.108595535 = queryWeight, product of:
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.03206978 = queryNorm
                0.18328488 = fieldWeight in 118, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  3.3862264 = idf(docFreq=4066, maxDocs=44218)
                  0.015625 = fieldNorm(doc=118)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
  20. Multimedia content and the Semantic Web : methods, standards, and tools (2005) 0.00
    9.407229E-4 = product of:
      0.0047036144 = sum of:
        0.0047036144 = product of:
          0.018814458 = sum of:
            0.018814458 = weight(_text_:22 in 150) [ClassicSimilarity], result of:
              0.018814458 = score(doc=150,freq=6.0), product of:
                0.11230291 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03206978 = queryNorm
                0.16753313 = fieldWeight in 150, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=150)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Classification
    006.7 22
    Date
    7. 3.2007 19:30:22
    DDC
    006.7 22

Years

Languages

  • d 26
  • e 13

Types

  • m 38
  • s 13
  • el 1
  • i 1
  • r 1
  • More… Less…

Subjects

Classifications