Search (75 results, page 2 of 4)

  • × classification_ss:"06.74 / Informationssysteme"
  1. ¬Die wunderbare Wissensvermehrung : wie Open-Innovation unsere Welt revolutioniert (2006) 0.03
    0.033341628 = product of:
      0.19171436 = sum of:
        0.084762 = weight(_text_:allgemeines in 115) [ClassicSimilarity], result of:
          0.084762 = score(doc=115,freq=8.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.63036615 = fieldWeight in 115, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.039801437 = weight(_text_:buch in 115) [ClassicSimilarity], result of:
          0.039801437 = score(doc=115,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.36323205 = fieldWeight in 115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.024769915 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.024769915 = score(doc=115,freq=30.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.47420087 = fieldWeight in 115, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
        0.042381 = product of:
          0.084762 = sum of:
            0.084762 = weight(_text_:allgemeines in 115) [ClassicSimilarity], result of:
              0.084762 = score(doc=115,freq=8.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.63036615 = fieldWeight in 115, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=115)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Information und Wissen sind die Grundbausteine der Wissensgesellschaft. Die Art und Weise, wie der Umgang mit diesen Ressourcen organisiert wird, ist gegenwärtig die Kernfrage weltweiter gesellschaftlicher, politischer, kultureller und wirtschaftlicher Auseinandersetzungen. Die digitale Revolution und das Internet haben die Voraussetzungen Wissen zu kommunizieren, also zu verbreiten und mit anderen zu teilen, grundlegend verändert und vereinfacht. Sie haben einen ungeahnten Kreativitäts- und Innovationsschub ausgelöst, der weit reichende Auswirkungen auf unser Leben und unsere Kultur haben wird. Diese Entwicklung wollen Vertreter der Informationswirtschaft, die sich durch die "wunderbare Wissensvermehrung" bedroht fühlen, zurückdrehen. Der Kampf ums "geistige Eigentum" und um die Kontrolle des Internet - und seiner Fortentwicklung - sind momentan daher wichtige politische Arenen auf globaler Ebene. Dieses Buch ist ein Plädoyer für die Innovationsfreiheit. Die Beiträge beleuchten, welche kreativen und innovativen Kräfte dem "Geist" des Internet bisher entsprungen sind. Die entstandene Public Domain des Wissens gilt es auszubauen und allen Menschen zugänglich zu machen. Ideen für das Buch lieferte die Konferenz "Open Innovation - Auf der Suche nach neuen Leitbildern", welche die Heinrich-Böll-Stiftung mit TU und HU Berlin 2004 in Berlin veranstaltete.
    Classification
    AK 26700 [Allgemeines # Wissenschaftskunde und Wissenschaftsorganisation # Wissenschaftserforschung, -psychologie, -soziologie # Wissenschaftsentwicklung, -wachstum, Innovation]
    SR 850 [Informatik # Nachschlagewerke. Didaktik # Allgemeines, Nachschlagewerke, Ausbildung # Gesellschaftliche Folgen der Datenverarbeitung]
    RVK
    AK 26700 [Allgemeines # Wissenschaftskunde und Wissenschaftsorganisation # Wissenschaftserforschung, -psychologie, -soziologie # Wissenschaftsentwicklung, -wachstum, Innovation]
    SR 850 [Informatik # Nachschlagewerke. Didaktik # Allgemeines, Nachschlagewerke, Ausbildung # Gesellschaftliche Folgen der Datenverarbeitung]
  2. Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.03
    0.03003597 = product of:
      0.13816547 = sum of:
        0.04794863 = weight(_text_:allgemeines in 2858) [ClassicSimilarity], result of:
          0.04794863 = score(doc=2858,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.35658893 = fieldWeight in 2858, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.022515094 = weight(_text_:buch in 2858) [ClassicSimilarity], result of:
          0.022515094 = score(doc=2858,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 2858, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.021707265 = weight(_text_:und in 2858) [ClassicSimilarity], result of:
          0.021707265 = score(doc=2858,freq=36.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.41556883 = fieldWeight in 2858, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.022020161 = weight(_text_:im in 2858) [ClassicSimilarity], result of:
          0.022020161 = score(doc=2858,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.33052707 = fieldWeight in 2858, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=2858)
        0.023974314 = product of:
          0.04794863 = sum of:
            0.04794863 = weight(_text_:allgemeines in 2858) [ClassicSimilarity], result of:
              0.04794863 = score(doc=2858,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.35658893 = fieldWeight in 2858, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2858)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Suchmaschinen sind die neuen »Gatekeeper« im Internet. Sie kanalisieren unsere Aufmerksamkeit und haben entscheidenden Einfluss darauf, welche Inhalte wie zugänglich sind. Ohne sie sind Informationen im Netz nur schwer auffindbar. Allerdings: Nur wenige Nutzer wissen, wie man Suchmaschinen optimal bedient und wie sie funktionieren. Sie sind anfällig für Manipulationen (»Spamming«) und verschaffen auch ungewollt Zugang zu illegalen und jugendgefährdenden Inhalten. Wie können Suchmaschinen trotzdem ihrer Verantwortung als zentrale Informationssortierer gerecht werden? Eine groß angelegte Untersuchung der Bertelsmann Stiftung stellt diese Beobachtungen auf eine wissenschaftliche Basis. Eine Nutzerbefragung, ein Laborexperiment und ein Leistungsvergleich geben Aufschluss über Image, Bedienerfreundlichkeit und Qualität von Suchmaschinen. Aus dieser Analyse entwickeln die Autoren einen Code of Conduct für Suchmaschinenbetreiber, der einen möglichst objektiven und transparenten Zugang zu Informationen im Netz garantieren soll. Das Buch ist dreigeteilt: Im ersten umfangreichen Teil (bis Seite 490) werden, nach einer Einführung in die Suchmaschinenproblematik und ihr Umfeld, Qualität und Nutzung erforscht: Nach der Marktanalyse der deutschsprachigen Suchdienste werden ausgewählte einem Leistungsvergleich unterzogen. Der Gefährdung von Kindern und Jugendlichen widmet sich das Kapitel Problemanalyse. Wie erfolgreich Spamversuche die Suchergebnisse beeinflussen können, wird anschließend dargestellt. Den Kenntnissen und Einstellungen von Nutzern von Suchdiensten widmet sich ein ausführliches Kapitel. Nutzungshäufigkeit, Suchprozesse und Vorgehensweisen sind detailliert untersucht worden. Die Ergebnisse der Laborexperimente liefern konkrete Einsichten, auf über 100 Seiten verständlich beschrieben. In Kapitel 6 werden die angewandten Methoden ausführlich erläutert. Das angefügte Glossar könnte ausführlicher sein. Der zweite Teil appelliert an die gesellschaftliche Verantwortung der deutschen Suchdienstbetreiber, indem ein Code of Conduct für Suchmaschinen entworfen wird. Im dritten Teil wird auf die Entwicklungen in der Suchmaschinenlandschaft eingegangen, die sich durch Firmenübernahmen und die Monopolstellung von Google ergeben haben.
    Classification
    AP 18450 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Telekommunikation, Bildschirmtext
    Content
    Enthält die Beiträge: Vorwort (Miriam Meckel) Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen (Marcel Machill, Christoph Neuberger, Wolfgang Schweiger, Werner Wirth) Ein Code of Conduct für Suchmaschinen (Carsten Welp) Die Suchmaschinenlandschaft 2003: Wirtschaftliche und technische Entwicklungen (Stefan Karzauninkat)
    RVK
    AP 18450 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Telekommunikation, Bildschirmtext
  3. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.03
    0.027924126 = product of:
      0.107042484 = sum of:
        0.017514976 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.017514976 = score(doc=641,freq=60.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.010699071 = product of:
          0.021398142 = sum of:
            0.021398142 = weight(_text_:kataloge in 641) [ClassicSimilarity], result of:
              0.021398142 = score(doc=641,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15836176 = fieldWeight in 641, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.5 = coord(1/2)
        0.030207427 = weight(_text_:katalogisierung in 641) [ClassicSimilarity], result of:
          0.030207427 = score(doc=641,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.22375701 = fieldWeight in 641, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.030207427 = weight(_text_:katalogisierung in 641) [ClassicSimilarity], result of:
          0.030207427 = score(doc=641,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.22375701 = fieldWeight in 641, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.016449453 = weight(_text_:im in 641) [ClassicSimilarity], result of:
          0.016449453 = score(doc=641,freq=20.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.24690962 = fieldWeight in 641, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.0019641288 = product of:
          0.0039282576 = sum of:
            0.0039282576 = weight(_text_:1 in 641) [ClassicSimilarity], result of:
              0.0039282576 = score(doc=641,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.06785194 = fieldWeight in 641, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=641)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Das vorliegende Werk ist der erste Band in der Reihe "Branchenreports" der Semantic Web School. Diese Reihe, die in Zusammenarbeit mit Branchenexperten entwickelt wurde, verfolgt das Ziel, in regelmäßigen Abständen die Bedeutung semantischer Technologien in ausgewählten Branchen und Communities zu analysieren und zu durchleuchten. Damit sollen dem interessierten Leser in erster Linie ein Überblick und Einstiegspunkte geboten werden: Die Branchenreports helfen, sich in einem emergenten Umfeld besser orientieren zu können, sie zeigen Entwicklungspfade an, entlang welcher sich Branchen bewegen, die vermehrt auf den Einsatz semantischer Informationstechnologien setzen. Dieser Branchenreport beschäftigt sich mit dem Bibliotheks-, Informationsund Dokumentationswesen (BID) und es ist kein Zufall, dass diese Branche als erste durchleuchtet wird, sind doch hier die Wurzeln der professionellen Wissensorganisation zu finden. Nun, im Zeitalter der Digitalisierung und des Internets, steht diese Community vor neuen, großen Herausforderungen und Möglichkeiten. Gerade im Umfeld des Semantic Web zeigt sich, dass die Erfahrungen aus dem BID-Bereich einen wichtigen Beitrag leisten können, soll die Entwicklung des Internets der nächsten Generation nicht nur von der Technik geprägt werden. Dieser Band möchte die Neugierde all jener wecken, die sich vor neuen Technologien nicht verschließen, und darauf aufmerksam machen, dass die Möglichkeiten, Information und Wissen zu organisieren, im 21. Jahrhundert gänzlich neue sein werden.
    BK
    06.70 / Katalogisierung / Bestandserschließung
    Classification
    06.70 / Katalogisierung / Bestandserschließung
    Content
    Inhaltsverzeichnis 1. Einleitung 2. Bibliothekspolitik 3. Begriffsdefinitionen 3.1. Bibliothek - 3.2. Archiv - 3.3. Museum - 3.4. Information und Dokumentation - 3.5. Information - 3.6. Semantik und semantische Technologien - 3.7. Ontologie - 3.8. Recall und Precision 4. Bibliotheken aus statistischer Sicht - Kennzahlen 5. Bibliographische Tools 5.1. Austauschformate 5.1.1. MAB / MAB2 - 5.1.2. Allegro-C - 5.1.3. MARC 2 - 5.1.4. Z39.50 - 5.1.5. Weitere Formate 5.2. Kataloge / OPACs 5.2.1. Aleph 500 - 5.2.2. Allegro-C - 5.2.3. WorldCat beta 5.3. Dokumentationssysteme 5.4. Suchmaschinen 5.4.1. Convera und ProTerm - 5.4.2. APA Online Manager - 5.4.3. Google Scholar - 5.4.4. Scirus - 5.4.5. OAIster - 5.4.6. GRACE 5.5. Informationsportale 5.5.1. iPort - 5.5.2. MetaLib - 5.5.3. Vascoda - 5.5.4. Dandelon - 5.5.5. BAM-Portal - 5.5.6. Prometheus 6. Semantische Anreicherung 6.1. Indexierung - 6.2. Klassifikation - 6.3. Thesauri 38 - 6.4. Social Tagging 7. Projekte 7.1. Bibster - 7.2. Open Archives Initiative OAI - 7.3. Renardus - 7.4. Perseus Digital Library - 7.5. JeromeDL - eLibrary with Semantics 8. Semantische Technologien in BAM-InstitutionenÖsterreichs 8.1. Verbundkatalog des Österreichischen Bibliothekenverbunds - 8.2. Bibliotheken Online - WebOPAC der Öffentlichen Bibliotheken - 8.3. Umfrage-Design - 8.4. Auswertung 9. Fazit und Ausblick 10. Quellenverzeichnis 11. Web-Links 12. Anhang Vgl.: http://www.semantic-web.at/file_upload/1_tmpphp154oO0.pdf.
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
    RSWK
    Information und Dokumentation / Semantic Web (GBV)
    Subject
    Information und Dokumentation / Semantic Web (GBV)
  4. Webwissenschaft : eine Einführung (2010) 0.02
    0.023844087 = product of:
      0.1371035 = sum of:
        0.059935786 = weight(_text_:allgemeines in 2870) [ClassicSimilarity], result of:
          0.059935786 = score(doc=2870,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.44573617 = fieldWeight in 2870, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.014300916 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.014300916 = score(doc=2870,freq=10.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27378 = fieldWeight in 2870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.032898907 = weight(_text_:im in 2870) [ClassicSimilarity], result of:
          0.032898907 = score(doc=2870,freq=20.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.49381924 = fieldWeight in 2870, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
        0.029967893 = product of:
          0.059935786 = sum of:
            0.059935786 = weight(_text_:allgemeines in 2870) [ClassicSimilarity], result of:
              0.059935786 = score(doc=2870,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.44573617 = fieldWeight in 2870, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2870)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Das World Wide Web unterscheidet sich strukturell erheblich von den traditionellen Medien und hat das Mediensystem von Grund auf verändert. Radikal sind die Auswirkungen der webtechnischen Innovation sowohl für die Medienlandschaft und die Gesellschaft als auch für diejenigen Wissenschaften, die sich mit Medien - deren Geschichte, Inhalten, Formen, Technik, Wirkungen usf. - befassen. In dieser Einführung werden vor diesem Hintergrund einerseits Forschungsfragen einer zukünftigen Webwissenschaft auf einer übergeordneten Ebene diskutiert, andererseits werden die Perspektiven der relevanten Bezugswissenschaften integriert.
    BK
    05.00 / Kommunikationswissenschaft: Allgemeines
    Classification
    05.00 / Kommunikationswissenschaft: Allgemeines
    Content
    Inhalt: Ist das Web ein Medium? --Konrad Scherfer Warum und zu welchem Zweck benötigen wir eine Webwissenschaft? 31- Helmut Volpers 'Diese Site wird nicht mehr gewartet'. Medienanalytische Perspektiven in den Medienwechseln - Rainer Leschke Emergente Öffentlichkeit? Bausteine zu einer Theorie der Weböffentlichkeit - Christoph Ernst Das ICH im Web - Auswirkungen virtueller Identitäten auf soziale Beziehungen - Helmut Volpers / Karin Wunder Technikgeschichte des Webs - Tom Alby Visuelles Denken im Interaktions- und Webdesign - Cyrus Khazaeli Das fotografische Bild im Web - Anja Bohnhof / Kolja Kracht Qualität im Web - Interdisziplinäre Website-Bewertung - David Kratz Für eine neue Poesie der Neugier. Das Web verändert den Journalismus - nicht nur online - Mercedes Bunz Das Web braucht Spezialisten, keine Generalisten. Zur Notwendigkeit einer webspezifischen Professionalisierung in der Ausbildung - Petra Werner Online-Forschung im Web - Methodenschwerpunkte im Überblick - Simone Fühles-Ubach Im Spiel der Moden? - Das Web in der Wirtschaft, die Wirtschaft im Web - Jörg Hoewner Medizin im Web - Martina Waitz Das Web und das Medienrecht - Bernd Holznagel / Thorsten Ricke Suchmaschinenforschung im Kontext einer zukünftigen Webwissenschaft - Dirk Lewandowski
  5. Braun, E.: ¬The Internet directory : [the guide with the most complete listings for: 1500+ Internet and Bitnet mailing lists, 2700+ Usenet newsgroups, 1000+ On-line library catalogs (OPACs) ...] (1994) 0.02
    0.023764325 = product of:
      0.18219316 = sum of:
        0.09589726 = weight(_text_:allgemeines in 1549) [ClassicSimilarity], result of:
          0.09589726 = score(doc=1549,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.71317786 = fieldWeight in 1549, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0625 = fieldNorm(doc=1549)
        0.03834728 = sum of:
          0.012570425 = weight(_text_:1 in 1549) [ClassicSimilarity], result of:
            0.012570425 = score(doc=1549,freq=2.0), product of:
              0.057894554 = queryWeight, product of:
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.023567878 = queryNorm
              0.2171262 = fieldWeight in 1549, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.4565027 = idf(docFreq=10304, maxDocs=44218)
                0.0625 = fieldNorm(doc=1549)
          0.025776858 = weight(_text_:29 in 1549) [ClassicSimilarity], result of:
            0.025776858 = score(doc=1549,freq=2.0), product of:
              0.08290443 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.023567878 = queryNorm
              0.31092256 = fieldWeight in 1549, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=1549)
        0.04794863 = product of:
          0.09589726 = sum of:
            0.09589726 = weight(_text_:allgemeines in 1549) [ClassicSimilarity], result of:
              0.09589726 = score(doc=1549,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.71317786 = fieldWeight in 1549, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1549)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Classification
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
    Date
    1. 3.2008 16:56:29
    RVK
    ST 200 Informatik / Monographien / Vernetzung, verteilte Systeme / Allgemeines, Netzmanagement
  6. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.02
    0.023719085 = product of:
      0.09092316 = sum of:
        0.023974314 = weight(_text_:allgemeines in 118) [ClassicSimilarity], result of:
          0.023974314 = score(doc=118,freq=4.0), product of:
            0.13446471 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.023567878 = queryNorm
            0.17829446 = fieldWeight in 118, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.027575243 = weight(_text_:buch in 118) [ClassicSimilarity], result of:
          0.027575243 = score(doc=118,freq=12.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.25165454 = fieldWeight in 118, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.0144715095 = weight(_text_:und in 118) [ClassicSimilarity], result of:
          0.0144715095 = score(doc=118,freq=64.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.27704588 = fieldWeight in 118, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.0101933535 = weight(_text_:im in 118) [ClassicSimilarity], result of:
          0.0101933535 = score(doc=118,freq=12.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15300429 = fieldWeight in 118, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=118)
        0.0027215772 = product of:
          0.0054431544 = sum of:
            0.0054431544 = weight(_text_:1 in 118) [ClassicSimilarity], result of:
              0.0054431544 = score(doc=118,freq=6.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.094018415 = fieldWeight in 118, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.015625 = fieldNorm(doc=118)
          0.5 = coord(1/2)
        0.011987157 = product of:
          0.023974314 = sum of:
            0.023974314 = weight(_text_:allgemeines in 118) [ClassicSimilarity], result of:
              0.023974314 = score(doc=118,freq=4.0), product of:
                0.13446471 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.023567878 = queryNorm
                0.17829446 = fieldWeight in 118, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.015625 = fieldNorm(doc=118)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Classification
    AE 11005 [Allgemeines # Enzyklopädien, allgemeine Nachschlagewerke # Allgemeinenzyklopädien (nach Sprachen) # Germanische Sprachen # Deutsch # 2005]
    Content
    Einführung in das Arbeiten in und mit dem Online-Lexikon; mit Hilfen, Ratschlägen, Anweisungen und Tipps sowohl für passive Nutzer als auch aktive Mitarbeiter. Beiliegende DVD-ROM enthält über 300.000 Artikel der Offline-Version des Lexikons.
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
    Pages
    272 S. + 1 DVD-ROM
    RVK
    AE 11005 [Allgemeines # Enzyklopädien, allgemeine Nachschlagewerke # Allgemeinenzyklopädien (nach Sprachen) # Germanische Sprachen # Deutsch # 2005]
    Series
    Wiki-Press ; 1
  7. Context: nature, impact, and role : 5th International Conference on Conceptions of Library and Information Science, CoLIS 2005, Glasgow 2005; Proceedings (2005) 0.02
    0.021367507 = product of:
      0.08190878 = sum of:
        0.024373304 = weight(_text_:buch in 42) [ClassicSimilarity], result of:
          0.024373304 = score(doc=42,freq=6.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.2224333 = fieldWeight in 42, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.019712454 = weight(_text_:und in 42) [ClassicSimilarity], result of:
          0.019712454 = score(doc=42,freq=76.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.3773797 = fieldWeight in 42, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.018681563 = weight(_text_:informationswissenschaft in 42) [ClassicSimilarity], result of:
          0.018681563 = score(doc=42,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.17596504 = fieldWeight in 42, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.012741691 = weight(_text_:im in 42) [ClassicSimilarity], result of:
          0.012741691 = score(doc=42,freq=12.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.19125536 = fieldWeight in 42, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=42)
        0.0027776978 = product of:
          0.0055553955 = sum of:
            0.0055553955 = weight(_text_:1 in 42) [ClassicSimilarity], result of:
              0.0055553955 = score(doc=42,freq=4.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09595714 = fieldWeight in 42, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=42)
          0.5 = coord(1/2)
        0.0036220662 = product of:
          0.0072441325 = sum of:
            0.0072441325 = weight(_text_:international in 42) [ClassicSimilarity], result of:
              0.0072441325 = score(doc=42,freq=2.0), product of:
                0.078619614 = queryWeight, product of:
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09214154 = fieldWeight in 42, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.33588 = idf(docFreq=4276, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=42)
          0.5 = coord(1/2)
      0.26086956 = coord(6/23)
    
    Classification
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
    Content
    Das Buch ist in die Abschnitte Invited Papers (1 Beitrag, 1 Abstract), Representing Context (3 Beiträge), Context and Relevance in Information Seeking (3), Context and Information (3), Contextualised Information Seeking (3), Agendas for Context (3), Context and Documents (2) und Workshops (2 Ankündigungstexte) gegliedert und enthält ein simples Autoren-, jedoch kein Sachregister. Die Autoren der Beiträge stammen mit einigen Ausnahmen (Italien, Frankreich, Russland) aus den angelsächsischen und skandinavischen Ländern.
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.100-103 (O. Oberhauser): "Dieses als Band 3507 der bekannten, seit 1973 erscheinenden Springer-Serie Lecture Notes in Computer Science (LNCS) publizierte Buch versammelt die Vorträge der 5. Tagung "Conceptions of Library and Information Science". CoLIS hat sich in den letzten anderthalb Jahrzehnten als internationales Forum für die Präsentation und Rezeption von Forschung auf den Fachgebieten Informatik und Informationswissenschaft etabliert. Auf die 1992 in Tampere (Finnland) anlässlich des damals 20jährigen Bestehens des dortigen Instituts für Informationswissenschaft abgehaltene erste Tagung folgten weitere in Kopenhagen (1996), Dubrovnik (1999) und Seattle, WA (2002). Die zuletzt an der Strathclyde University in Glasgow (2005) veranstaltete Konferenz war dem Thema "Context" im Rahmen der informationsbezogenen Forschung gewidmet, einem komplexen, dynamischen und multidimensionalen Begriff von grosser Bedeutung für das Verhalten und die Interaktion von Mensch und Maschine. . . .
    Am interessantesten und wichtigsten erschien mir der Grundsatzartikel von Peter Ingwersen und Kalervo Järvelin (Kopenhagen/Tampere), The sense of information: Understanding the cognitive conditional information concept in relation to information acquisition (S. 7-19). Hier versuchen die Autoren, den ursprünglich von Ingwersen1 vorgeschlagenen und damals ausschliesslich im Zusammenhang mit dem interaktiven Information Retrieval verwendeten Begriff "conditional cognitive information" anhand eines erweiterten Modells nicht nur auf das Gesamtgebiet von "information seeking and retrieval" (IS&R) auszuweiten, sondern auch auf den menschlichen Informationserwerb aus der Sinneswahrnehmung, wie z.B. im Alltag oder im Rahmen der wissenschaftlichen Erkenntnistätigkeit. Dabei werden auch alternative Informationsbegriffe sowie die Beziehung von Information und Bedeutung diskutiert. Einen ebenfalls auf Ingwersen zurückgehenden Ansatz thematisiert der Beitrag von Birger Larsen (Kopenhagen), indem er sich mit dessen vor über 10 Jahren veröffentlichten2 Principle of Polyrepresentation befasst. Dieses beruht auf der Hypothese, wonach die Überlappung zwischen unterschiedlichen kognitiven Repräsentationen - nämlich jenen der Situation des Informationssuchenden und der Dokumente - zur Reduktion der einer Retrievalsituation anhaftenden Unsicherheit und damit zur Verbesserung der Performance des IR-Systems genutzt werden könne. Das Prinzip stellt die Dokumente, ihre Autoren und Indexierer, aber auch die sie zugänglich machende IT-Lösung in einen umfassenden und kohärenten theoretischen Bezugsrahmen, der die benutzerorientierte Forschungsrichtung "Information-Seeking" mit der systemorientierten IR-Forschung zu integrieren trachtet. Auf der Basis theoretischer Überlegungen sowie der (wenigen) dazu vorliegenden empirischen Studien hält Larsen das Model, das von Ingwersen sowohl für "exact match-IR" als auch für "best match-IR" intendiert war, allerdings schon in seinen Grundzügen für "Boolean" (d.h. "exact match"-orientiert) und schlägt ein "polyrepresentation continuum" als Verbesserungsmöglichkeit vor.
    Mehrere Beiträge befassen sich mit dem Problem der Relevanz. Erica Cosijn und Theo Bothma (Pretoria) argumentieren, dass für das Benutzerverhalten neben der thematischen Relevanz auch verschiedene andere Relevanzdimensionen eine Rolle spielen und schlagen auf der Basis eines (abermals auf Ingwersen zurückgehenden) erweiterten Relevanzmodells vor, dass IR-Systeme die Möglichkeit zur Abgabe auch kognitiver, situativer und sozio-kognitiver Relevanzurteile bieten sollten. Elaine Toms et al. (Kanada) berichten von einer Studie, in der versucht wurde, die schon vor 30 Jahren von Tefko Saracevic3 erstellten fünf Relevanzdimensionen (kognitiv, motivational, situativ, thematisch und algorithmisch) zu operationalisieren und anhand von Recherchen mit einer Web-Suchmaschine zu untersuchen. Die Ergebnisse zeigten, dass sich diese fünf Dimensionen in drei Typen vereinen lassen, die Benutzer, System und Aufgabe repräsentieren. Von einer völlig anderen Seite nähern sich Olof Sundin und Jenny Johannison (Boras, Schweden) der Relevanzthematik, indem sie einen kommunikationsorientierten, neo-pragmatistischen Ansatz (nach Richard Rorty) wählen, um Informationssuche und Relevanz zu analysieren, und dabei auch auf das Werk von Michel Foucault zurückgreifen. Weitere interessante Artikel befassen sich mit Bradford's Law of Scattering (Hjørland & Nicolaisen), Information Sharing and Timing (Widén-Wulff & Davenport), Annotations as Context for Searching Documents (Agosti & Ferro), sowie dem Nutzen von neuen Informationsquellen wie Web Links, Newsgroups und Blogs für die sozial- und informationswissenschaftliche Forschung (Thelwall & Wouters). In Summe liegt hier ein interessantes und anspruchsvolles Buch vor - inhaltlich natürlich nicht gerade einheitlich und geschlossen, doch dies darf man bei einem Konferenzband ohnedies nicht erwarten. Manche der abgedruckten Beiträge sind sicher nicht einfach zu lesen, lohnen aber die Mühe. Auch für Praktiker aus Bibliothek und Information ist einiges dabei, sofern sie sich für die wissenschaftliche Basis ihrer Tätigkeit interessieren. Fachlich einschlägige Spezial- und grössere Allgemeinbibliotheken sollten das Werk daher unbedingt führen.
    Context: Nature, Impact and Role ist ein typischer LNCS-Softcover-Band in sauberem TeX-Design und mutet mit knapp 50 Euro zwar nicht als wohlfeil an, liegt aber angesichts heutiger Buchpreise im Rahmen. Die Zahl der Tippfehler hält sich in Grenzen, ist jedoch gelegentlich peinlich (z.B. wenn man auf S. 2, noch dazu im Fettdruck, "Tractaus" anstelle von "Tractatus" lesen muss). Als Kuriosum am Rande sei erwähnt, dass die einleitend abgedruckte Namensliste des CoLIS-Programmkomitees, immerhin rund 50 Personen, vom Computer fein säuberlich sortiert wurde - dies allerdings nach dem Alphabet der Vornamen der Komiteemitglieder, was offenbar weder den Herausgebern noch dem Verlag aufgefallen ist."
    RVK
    SS 4800 [Informatik # Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen # Schriftenreihen (indiv. Sign.) # Lecture notes in computer science]
  8. Jeanneney, J.-N.: Googles Herausforderung : Für eine europäische Bibliothek (2006) 0.02
    0.018261524 = product of:
      0.08400301 = sum of:
        0.02517264 = weight(_text_:buch in 46) [ClassicSimilarity], result of:
          0.02517264 = score(doc=46,freq=10.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.22972812 = fieldWeight in 46, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.015349354 = weight(_text_:und in 46) [ClassicSimilarity], result of:
          0.015349354 = score(doc=46,freq=72.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29385152 = fieldWeight in 46, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.017087901 = weight(_text_:katalogisierung in 46) [ClassicSimilarity], result of:
          0.017087901 = score(doc=46,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.12657608 = fieldWeight in 46, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.017087901 = weight(_text_:katalogisierung in 46) [ClassicSimilarity], result of:
          0.017087901 = score(doc=46,freq=2.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.12657608 = fieldWeight in 46, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.009305216 = weight(_text_:im in 46) [ClassicSimilarity], result of:
          0.009305216 = score(doc=46,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.13967317 = fieldWeight in 46, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
      0.2173913 = coord(5/23)
    
    Footnote
    Rez. in: Frankfurter Rundschau. Nr.66 vom 18.3.2006, S.17. (M. Meister): "Es ist eine kleine Kampfschrift, ein Pamphlet, geschrieben mit heißer, französischer Feder. Doch in Deutschland tut man es bereits ab: als Fortsetzung des müßigen Kulturkampfes zwischen Frankreich und Amerika, als "kulturkritisches Ressentiment". "Wo ist der Skandal", titelte die Süddeutsche Zeitung, als Jean-Noel Jeanneney sein Buch Googles Herausforderung unlängst in der französischen Botschaft in Berlin vorstellte. Man kann hierzulande nichts Böses darin erkennen, wenn die amerikanische Firma Google gemeinsam mit vier renommierten amerikanischen und der Universitätsbibliothek von Oxford innerhalb weniger Jahre 15 Millionen Bücher digitalisieren will. "So what", stöhnen die Deutschen, während die Franzosen auf die Barrikaden steigen. Aus französischer Perspektive verbirgt sich hinter dem im Winter 2004 angekündigten Projekt, "Google Print" mit Namen, tatsächlich ein kulturelles Schreckenszenario, dessen Folgen in der Öffentlichkeit breit diskutiert wurden. Von kultureller Hegemonie war die Rede, von der ewigen Dominanz der Amerikaner über die Europäer, sprich des Geldes über die Kultur. Der in Frankreich lebende Schriftsteller Alberto Manguel sah sogar den Albtraum seines Kollegen Jorge Louis Borges verwirklicht, der in seiner Erzählung Die Bibliothek von Babel genau davon geträumt hatte: eine Bibliothek, in der alles vorhanden ist, so viele Bücher, dass man kein einziges mehr wird finden können. Wo der Skandal ist? Nirgendwo, würde Jeanneney antworten. Denn darum geht es ihm tatsächlich nicht. Er plädiert vielmehr dafür, die Herausforderung anzunehmen, und Google das Feld nicht allein zu überlassen. Jeanneney, Leiter der französischen Nationalbibliothek und zweifellos Kenner der Materie, beschreibt deshalb eindringlich die Konsequenzen einer Digitalisierung des schriftlichen Kulturerbes unter amerikanisch-kommerziellem Monopol. Er hat diese kurze Kampfschrift, die soeben auf Deutsch bei Wagenbach erschienen ist, gewissermaßen als Flaschenpost benutzt, um die Verantwortlichen anderer Länder aufzurütteln und für ein gemeinsames Projekt zu gewinnen.
    Sein Feldzug war erfolgreich: Europa will eine gemeinsame virtuelle Bibliothek aufbauen, an der sich nur die portugiesische Nationalbibliothek und die British Library nicht beteiligen wollen. Die Staatschefs sind sich einig, die Kulturminister im Gespräch. Es fehlen natürlich noch das Geld und sicher auch der Glaube daran, dass die träge Brüsseler Maschinerie es mit einem agilen amerikanischen Unternehmen aufnehmen könnte. Aber auch dort läuft nicht alles wie geplant: Selbst amerikanische Verleger haben gegen die Verletzung des Urheberrechtes protestiert und für Verzögerungen gesorgt. Jeanneney sieht in einem amerikanischen Alleingang und dem De-facto-Monopol von Google vor allem drei Gefahren: Erstens eine Hierarchisierung und Ordnung des Wissens nach rein kommerziellen Gesichtspunkten. "Kultur heißt nicht, alles kunterbunt auf einen Wühltisch zu schütten", sagt Jeanneney. Wissen und Kulturerbe müsse organisiert, das Angebot hierarchisiert werden. Die zweite kurzfristige Gefahr sieht er in der angelsächsischen Dominanz, in der Tatsache, dass die Trefferliste vor allem englische Texte anzeigen wird oder solche, die unter angloamerikanischem Blickwinkel ausgewählt wurden. Langfristig müsse man sich vor allem fragen, und darin sieht er die dritte Gefahr, wie ein Unternehmen, das so schnell eingehen kann wie es entstanden ist, den Fortbestand dieses Projektes sichern will. Jeanneney fordert die Staaten deshalb auf, sich einzumischen und diesem rein am Kapital orientierten Projekt einen längeren Atem einzuhauchen, "den Atem von mehreren Generationen". Jeanneneys Versuch, hinter dem moralischen Deckmäntelchen die materiellen Interessen von Google zu benennen, wird in Deutschland als "kulturkritisches Ressentiment" abgetan. Drängt sich die Frage auf, ob es sich in diesem Fall um ein antiamerikanisches oder womöglich eher um ein antifranzösisches Ressentiment handelt. Frankreichs Sozialromantiker und Kulturkämpfer stören offensichtlich den ungebrochen naiven Glauben an das messianische Versprechen des Kapitalismus, nach den Waren nun auch das Wissen der Welt zu verteilen. Es sieht aus, als gäbe es alles umsonst. Aber Google lässt sich seine Informationsbeschaffung bekanntlich bezahlen. Es gilt eben nicht das Gesetz der Enzyklopädie, sondern immer noch die Logik des Dow Jones."
    Weitere Rez. in: ZfBB 53(2006) H.3/4, S.215-217 (M. Hollender): "Die Aversion des Präsidenten der Französischen Nationalbibliothek, Jean-Noël Jeanneney, gegen die Pläne von Google zur Massendigitalisierung kann nach der breiten Erörterung in der Tagespresse als zumindest in Grundzügen bekannt vorausgesetzt werden. Nunmehr liegt seine im März 2005 entstandene »Kampfschrift« (S.7) aktualisiert und mit einem Nachwort von Klaus-Dieter Lehmann versehen, auch in einer deutschen Übersetzung vor. So viel vorab: selten erhält man für 9,90 Euro so wenig und zugleich so viel: so viel Polemik, Selbstpreisgabe und Emphase und so wenig konkrete strategisch weiterführende Ideen. Dem Leser fällt vor allem der plumpe Antiamerikanismus, der dem gesamten Büchlein zugrunde liegt, über kurz oder lang unangenehm auf. Jeanneney moniert die »unvermeidliche amerikanische Ichbezogenheit« (S. 9). Wer aber mag es Google verdenken, sein Projekt zunächst mit angloamerikanischen Bibliotheken zu starten? Die Bereitschaft der britischen Boolean Library, ihre exzellenten Bestände vor 1900 von Google ebenfalls digitalisieren zu lassen, wird von Jeanneney im Stile einer Verschwörungstheorie kommentiert: »Wieder einmal wurde uns die altbekannte angloamerikanische Solidarität vorgeführt.« (S.19) Mit derselben Emphase könnte man sich darüber freuen, dass Google sich der Bestände hochbedeutender Forschungsbibliotheken versichert - nicht aber Jeanneney. Fazit: die »US-Dominanz, die mit einer mehr oder weniger bewussten Arroganz einhergeht«, bewirke, dass »alles, was der amerikanischen Weltsicht widerspricht, aussortiert« werde (S. 23). Wer derart voreingenommen wie Jeanneney an die Google-Pläne herangeht, verbaut sich selber die Chancen auf eine konstruktive und kooperative Lösung des Google-Problems. ...
    Es empfiehlt sich, an die Google-Vorhaben mit einer gehörigen Portion Unvoreingenommenheit heranzutreten und von einem Projekt, das noch in den Kinderschuhen steckt, keine Wunderdinge zu erwarten; unbestreitbare Leistungen aber auch als solche würdigend anzuerkennen. ... Das in Digitalisierungsfragen noch immer schläfrige, wenn nicht gar schlafende Europa, ist zweifellos zunächst von Google geweckt und anschließend von Jeanneney alarmiert worden. Jeanneney hat aus einem zunächst harmlos anmutenden privatwirtschaftlichen Vorhaben ein Politikum gemacht; dass er hierbei immer wieder über sein hehres Ziel einer europäischen Gegenoffensive hinausschießt, kann die Debatte nur beleben. Er wendet sich gegen den neoliberalen Glauben, die Kräfte des freien kapitalistischen Marktes seien in der Lage, allen Seiten gerecht zu werden, und fordert eine Dominanz des staatlichen Sektors, der zumindest komplementär tätig werden müsse, um die Auswüchse von Google gegensteuernd zu bremsen. Dort, wo Jeanneney die antiamerikanische Schelte verlässt und die europäische Antwort skizziert, zeigen sich seine Stärken. Google arbeitet zwar mit Bibliotheken zusammen, ob die Intensität dieser Kooperation aber ausreichend hoch ist, um bewährte bibliothekarische Standards verwirklichen zu können, ist zumindest fraglich. Die >Suchmaske> erlaubt keine spezifizierenden Anfragen; die formale Erschließung der digitalisierten Werke ist völlig unzureichend; eine inhaltliche Erschließung existiert nicht. Hier könnten die europäischen Bibliothekare in der Tat ihre spezifischen Kenntnisse einbringen und statt der von Jeanneney kritisierten Bereitstellung »zusammenhangsloser] Wissensfragmente« (S.14) eine Anreicherung der Digitalisate mit Metadaten anbieten, die das Datenmeer filtert. Wer aber - in der Bibliothekslandschaft sicherlich unstrittig - die exakte Katalogisierung der Digitalisate und ihre Einbindung in Bibliothekskataloge wünscht, damit die Bücher nicht nur über Google, sondern auch über die Portale und Katalogverbünde zugänglich sind, sollte auf Google zugehen, anstatt Google zu provozieren.
    Konkurrenz belebt das Geschäft, so auch im vorliegenden Fall. Was freilich verhindert werden muss, ist zunächst, auf bibliothekarischer Seite hochnäsig und beleidigt zu reagieren, denn was Google allein bisher konzipiert und realisiert hat, ist in seiner Grundidee viel zu wertvoll, als dass man es pauschal in Misskredit bringen dürfte. Eine deutsche bzw. gesamteuropäische Initiative dürfte bei der Massendigitalisierung von Altbestand nicht blind >irgendwelche< Magazinbestände bündeln, sondern intellektuellen Aufwand betreiben, um langfristig belastbare und plausible Kriterien zu entwickeln, was digitalisiert werden soll und was vorerst nicht. Erst wer die Relevanz des jeweiligen Buches für die Forschung, die Seltenheit des Werkes, seine Nachfrage innerhalb der Forscherszene, seine allgemeine kulturelle Bedeutung sowie den konservatorischen Zustand der heute erhaltenen Exemplare in Betracht zieht, schafft einen qualitativen Mehrwert gegenüber Google. ... Google macht neugierig - und das allein ist wünschenswert und erfreulich. Zugleich fordert uns Google massiv heraus: sicherlich für manche unerwünscht und lästig, objektiv betrachtet aber die vielleicht einzige Möglichkeit, die Verzögerung Europas in Digitalisierungsfragen zu stoppen. Dem Verlag Wagenbach sei gedankt, die Kontroverse um Google durch eine Übersetzung der streitbaren Thesen Jeanneneys auch in Deutschland entfacht zu haben."
    Vgl. auch Jeanneney, J.-N., M. Meister: Ein Kind der kommerziellen Logik: Der Präsident der Pariser Bibliothèque Nationale de France, Jean-Noël Jeanneney, über "Google print" und eine virtuelle, europäische Bibliothek. [Interview]. In: Frankfurter Rundschau. Nr.208 vom 7.9.2005, S.17.
    Issue
    Vom Autor für die dt. Ausg. aktualisiert und mit einem Nachw. von Klaus-Dieter Lehmann. Aus d. Franz. von Sonja Finck und Nathalie Mälzer-Semlinger.
    RSWK
    USA / Google / Bibliothek / Buch / Digitalisierung
    Europa / Bibliothek / Buch / Google Inc. / Digitalisierung
    Subject
    USA / Google / Bibliothek / Buch / Digitalisierung
    Europa / Bibliothek / Buch / Google Inc. / Digitalisierung
  9. Franke, F; Klein, A.; Schüller-Zwierlein, A.: Schlüsselkompetenzen : Literatur recherchieren in Bibliotheken und Internet (2010) 0.02
    0.017672742 = product of:
      0.08129462 = sum of:
        0.022515094 = weight(_text_:buch in 4721) [ClassicSimilarity], result of:
          0.022515094 = score(doc=4721,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 4721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=4721)
        0.023446526 = weight(_text_:und in 4721) [ClassicSimilarity], result of:
          0.023446526 = score(doc=4721,freq=42.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.44886562 = fieldWeight in 4721, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4721)
        0.017118512 = product of:
          0.034237023 = sum of:
            0.034237023 = weight(_text_:kataloge in 4721) [ClassicSimilarity], result of:
              0.034237023 = score(doc=4721,freq=2.0), product of:
                0.1351219 = queryWeight, product of:
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.023567878 = queryNorm
                0.2533788 = fieldWeight in 4721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.733308 = idf(docFreq=388, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4721)
          0.5 = coord(1/2)
        0.011770271 = weight(_text_:im in 4721) [ClassicSimilarity], result of:
          0.011770271 = score(doc=4721,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 4721, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4721)
        0.0064442144 = product of:
          0.012888429 = sum of:
            0.012888429 = weight(_text_:29 in 4721) [ClassicSimilarity], result of:
              0.012888429 = score(doc=4721,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.15546128 = fieldWeight in 4721, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4721)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Abstract
    Tipps und Tricks für effizientes Recherchieren und fehlerfreies Zitieren - Unerlässlich im Studium und in vielen Berufen. Mit praktischen Recherchebeispielen, Checklisten, Infokästen, Abbildungen und GrafikenGewusst wie! Von der Auswahl der Datenbanken und Suchmaschinen, über den Einsatz der geeigneten Suchbegriffe und die Auswertung der Ergebnisse, bis hin zum korrekten Zitieren und dem Erstellen eigener Literaturlisten der Ratgeber demonstriert Schritt für Schritt, wie man die passende Literatur, z. B. für Seminar- und Hausarbeiten, findet und verarbeitet. Berücksichtigt werden dabei nicht nur gedruckte Quellen, wie Bücher, Zeitschriften und Zeitungen, sondern auch frei verfügbare oder lizenzpflichtige Internet-Ressourcen.
    Content
    Pressestimmen So bringt Literatursuche Lust statt Frust. www.literaturmarkt.info Dieser Ratgeber demonstriert Schritt für Schritt, wie man die passende Literatur, z.B. für Seminar- und Hausarbeiten, findet und verarbeitet. www.lehrerbibliothek.de Schlüsselkompetenzen: Literatur recherchieren in Bibliotheken und Internet führt Studenten in die Geheimnisse der Uni-Bibliothek ein. Das Buch liefert zudem Informationen über Online-Kataloge, Datenbanken, die Elektronische Zeitschriftenbibliothek (EZB) und die gängigen Suchmaschinen. www.stellenboersen.de Nützliches und höchst informatives Lehrbuch zu der Schlüsselkompetenz Literaturrecherche. Universitätsbibliothek Freiburg Gutes Recherchieren will gelernt sein, zumal in der heutigen Zeit, da das Informationsangebot ungeahnte Ausmaße angenommen hat und sich viele davon überfordert fühlen. Da nicht alle Hochschulen entsprechende Kurse anbieten, ist es gut, einen kundigen Ratgeber wie diesen zur Hand zu haben. STUDIUM Der Ratgeber besticht durch seinen übersichtlichen Aufbau und eignet sich deshalb auch als Nachschlagewerk. Zahlreiche Beispielrecherchen, Checklisten und Tipps zur Literatursuche erleichtern die Umsetzung des Gelesenen. ph akzente Im Zentrum steht nicht nur die Recherche, sondern ein umfassender Begriff der Informationskompetenz. Germanistik Der preisgünstige Band verdient eine nachdrückliche Kaufempfehlung bei Studierenden (und Lehrenden). Informationsmittel (IFB) : digitales Rezensionsorgan für Bibliotheken und Wissenschaft.
    Date
    29. 8.2011 12:21:48
  10. New directions in cognitive information retrieval (2005) 0.02
    0.017255194 = product of:
      0.079373896 = sum of:
        0.028143864 = weight(_text_:buch in 338) [ClassicSimilarity], result of:
          0.028143864 = score(doc=338,freq=8.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.25684384 = fieldWeight in 338, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.017514976 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.017514976 = score(doc=338,freq=60.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.018681563 = weight(_text_:informationswissenschaft in 338) [ClassicSimilarity], result of:
          0.018681563 = score(doc=338,freq=4.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.17596504 = fieldWeight in 338, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.01163152 = weight(_text_:im in 338) [ClassicSimilarity], result of:
          0.01163152 = score(doc=338,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17459147 = fieldWeight in 338, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.0034019712 = product of:
          0.0068039424 = sum of:
            0.0068039424 = weight(_text_:1 in 338) [ClassicSimilarity], result of:
              0.0068039424 = score(doc=338,freq=6.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.117523015 = fieldWeight in 338, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=338)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    Isbn
    1-402-04013-X
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  11. Theories of information behavior (2005) 0.02
    0.017110374 = product of:
      0.078707725 = sum of:
        0.031841148 = weight(_text_:buch in 68) [ClassicSimilarity], result of:
          0.031841148 = score(doc=68,freq=16.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.29058564 = fieldWeight in 68, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=68)
        0.011999142 = weight(_text_:und in 68) [ClassicSimilarity], result of:
          0.011999142 = score(doc=68,freq=44.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.2297143 = fieldWeight in 68, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=68)
        0.021135775 = weight(_text_:informationswissenschaft in 68) [ClassicSimilarity], result of:
          0.021135775 = score(doc=68,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.1990817 = fieldWeight in 68, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.015625 = fieldNorm(doc=68)
        0.011010081 = weight(_text_:im in 68) [ClassicSimilarity], result of:
          0.011010081 = score(doc=68,freq=14.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.16526353 = fieldWeight in 68, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=68)
        0.0027215772 = product of:
          0.0054431544 = sum of:
            0.0054431544 = weight(_text_:1 in 68) [ClassicSimilarity], result of:
              0.0054431544 = score(doc=68,freq=6.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.094018415 = fieldWeight in 68, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.015625 = fieldNorm(doc=68)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.90-93 (O. Oberhauser): "What a marvellous book! [dies vorwegnehmend als Quintessenz der folgenden Rezension und auch für den englischsprachigen Verlag gedacht]. Den drei Herausgeberinnen, die an den Universitäten von Washington (Seattle, WA), Missouri (Columbia, MO) und Western Ontario (London, Kanada) lehren, ist das seltene Kunststück geglückt, einen Band zu erstellen, der nicht nur als mustergültige Einführung in die Thematik human information behaviour zu dienen vermag, sondern gleichzeitig auch als Nachschlagewerk zu den vielfältigen theoretischen Ansätzen innerhalb dieser bedeutenden Teildisziplin der Informationswissenschaft herangezogen werden kann. Wie sie selbst in der Danksagung feststellen, ist das Buch "a collaborative work of the information behavior community" (S. xvii), wobei die editorische Leistung vor allem darin lag, 85 Beitragende aus zehn Ländern zu koordinieren bzw. zur Abfassung von 72 Artikeln von jeweils ähnlicher Länge (bzw. Knappheit und Kürze), Gestaltung und Lesbarkeit zu veranlassen. Unter diesen 85 Beitragenden ist im übrigen alles versammelt, was in dieser Teildisziplin Rang und Namen hat, mit Ausnahme der leider bereits verstorbenen Soziologin Elfreda A. Chatman, einer der einflussreichsten Theoretikerinnen im Bereich des Informationsverhaltens, deren Andenken das Buch auch gewidmet ist.
    Im Gegensatz zur früher üblichen Praxis, Informationsverhalten auf die Aktivitäten der Informationssuche zu beschränken, folgt man heute Tom Wilsons Definition, wonach es sich dabei um "the totality of human behaviour in relation to sources and channels of information, including both active and passive information-seeking, and information use" handelt, bzw. jener von Karen Pettigrew [nunmehr Fisher] et al., "how people need, seek, give and use information in different contexts". Im Laufe der letzten Jahre, ja schon Jahrzehnte, hat sich dazu ein fast nicht mehr überschaubarer Bestand an Literatur angesammelt, der sich sowohl aus theoretischen bzw. theoretisierenden, als auch aus auch praktischen bzw. empirischen Arbeiten zusammensetzt. Einige wenige dieser theoretischen Ansätze haben weite Verbreitung gefunden, werden in Studiengängen der Informationswissenschaft gelehrt und tauchen in der laufend veröffentlichten Literatur immer wieder als Basis für empirische Untersuchungen oder modifizierende Weiterentwicklungen auf. Das Buch beginnt mit drei Grundsatzartikeln, die von herausragenden Vertretern des gegenständlichen Themenbereichs verfasst wurden. Im ersten und längsten dieser Beiträge, An Introduction to Metatheories, Theories and Models (S. 1-24), gibt Marcia J. Bates (Los Angeles, CA), zunächst eine wissenschaftstheoretische Einführung zu den drei im Titel genannten Begriffen, nicht ohne darauf hinzuweisen, dass der Großteil der theoretisierenden Ansätze in unserer Disziplin erst dem Modellstadium angehört. Am Beispiel des Principle of Least Effort zeigt sie, dass selbst für diesen am besten abgesicherten Befund der Forschung zum Informationsverhalten, keine ausreichende theoretische Begründung existiert. In der Folge versucht Bates, die in der Informationswissenschaft gängigen Metatheorien zu identifizieren und gelangt dabei zu der folgenden Kategorisierung, die auch als Bezugsrahmen für die Einordnung der zahlreichen in diesem Buch dargestellten Modelle dienen kann:
    1. historisch (die Gegenwart aus der Vergangheit heraus verstehen) 2. konstruktivistisch (Individuen konstruieren unter dem Einfluss ihres sozialen Kontexts das Verständnis ihrer Welten) 3. diskursanalytisch (Sprache konstituiert die Konstruktion der Identität und die Ausbildung von Bedeutungen) 4. philosophisch-analytisch (rigorose Analyse von Begriffen und Thesen) 5. kritische Theorie (Analyse versteckter Macht- und Herrschaftsmuster) 6. ethnographisch (Verständnis von Menschen durch Hineinversetzen in deren Kulturen) 7. sozialkognitiv (sowohl das Denken des Individuums als auch dessen sozialer bzw. fachlicher Umraum beeinflussen die Informationsnutzung) 8. kognitiv (Fokus auf das Denken der Individuen im Zusammenhang mit Suche, Auffindung und Nutzung von Information) 9. bibliometrisch (statistische Eigenschaften von Information) 10. physikalisch (Signalübertragung, Informationstheorie) 11. technisch (Informationsbedürfnisse durch immer bessere Systeme und Dienste erfüllen) 12. benutzerorientierte Gestaltung ("usability", Mensch-Maschine-Interaktion) 13. evolutionär (Anwendung von Ergebnissen von Biologie und Evolutionspsychologie auf informationsbezogene Phänomene). Bates Beitrag ist, wie stets, wohldurchdacht, didaktisch gut aufbereitet und in klarer Sprache abgefasst, sodass man ihn mit Freude und Gewinn liest. Zu letzterem trägt auch noch die umfangreiche Liste von Literaturangaben bei, mit der sich insbesondere die 13 genannten Metatheorien optimal weiterverfolgen lassen. . . .
    Zusammenfassend möchte ich folgende Behauptung wagen: Wer dieses Buch gründlich studiert (und natürlich auch die zahlreichen Literaturhinweise verfolgt), kennt mehr oder weniger alles, was es zum Themenbereich Informationsverhalten - als Teildisziplin der Informationswissenschaft - zu wissen gibt. Kann man über ein Buch noch etwas Besseres sagen? Und kann man voraussehen, welche neuen metatheoretischen Ansätze mit einer solchen Gesamtschau noch gefunden können und werden? In formaler Hinsicht bietet der Verlag Information Today mit dem vorliegenden Buch einen ansprechend gestalteten Hardcover-Band ohne größere Mängel und mit einem dem Gebotenen angemessenen Preis. Von dem fast 30 Seiten langen kombinierten Namens- und Sachregister könnten manche europäischen Verlage - die diesbezüglich eher auf Einsparung setzen oder wenig professionelle Register anbieten - lernen, wie man derlei macht. Als fehlend könnte man vielleicht einen Anhang mit den Kurzbiographien aller Beitragenden empfinden, doch mag es verständlich erscheinen, dass dies angesichts deren großer Zahl auf eine Vorstellung der drei Herausgeberinnen beschränkt wurde. Nicht gefallen hat mir der wenig konsistente Zitierstil bei den bibliographischen Angaben, einschließlich der Mode, beim Zitieren von Zeitschriftenaufsätzen vorgeblich redundante Heftangaben wegzulassen. Über die Exaltation der dritten Herausgeberin, ihrem Vornamen (auch auf dem Titelblatt!) noch den Klammerausdruck "(E. F.)" hinzuzufügen, sei rasch der Mantel des Schweigens gebreitet. In Summe daher, wie schon eingangs festgestellt wurde, ein vorzügliches und sehr empfehlenswertes Buch."
    Isbn
    1-57387-230-X
  12. Chu, H.: Information representation and retrieval in the digital age (2010) 0.01
    0.014712673 = product of:
      0.067678295 = sum of:
        0.029784668 = weight(_text_:buch in 92) [ClassicSimilarity], result of:
          0.029784668 = score(doc=92,freq=14.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.27181798 = fieldWeight in 92, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.01556108 = weight(_text_:und in 92) [ClassicSimilarity], result of:
          0.01556108 = score(doc=92,freq=74.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29790485 = fieldWeight in 92, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.010567888 = weight(_text_:informationswissenschaft in 92) [ClassicSimilarity], result of:
          0.010567888 = score(doc=92,freq=2.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.09954085 = fieldWeight in 92, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.0101933535 = weight(_text_:im in 92) [ClassicSimilarity], result of:
          0.0101933535 = score(doc=92,freq=12.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.15300429 = fieldWeight in 92, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.0015713031 = product of:
          0.0031426062 = sum of:
            0.0031426062 = weight(_text_:1 in 92) [ClassicSimilarity], result of:
              0.0031426062 = score(doc=92,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.05428155 = fieldWeight in 92, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.015625 = fieldNorm(doc=92)
          0.5 = coord(1/2)
      0.2173913 = coord(5/23)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
    Die Kapitel fünf bis neun widmen sich dann ausführlich dem Information Retrieval. Zuerst werden grundlegende Retrievaltechniken vorgestellt und ihre Vor- und Nachteile dargestellt. Aus der Sicht des Nutzers von IR-Systemen wird der Prozess des Bildens einer Suchanfrage diskutiert und die damit verbundenen Probleme aufgezeigt. Im sechsten Kapitel werden die Retrieval-Ansätze Suchen und Browsen gegenübergestellt, entsprechende Suchstrategien aufgezeigt und schließlich Ansätze diskutiert, die suchen und browsen zu integrieren versuchen. Das siebte Kapitel beschäftigt sich dann mit dem, was den Kern der meisten IRBücher ausmacht: den IR-Modellen. Diese werden kurz vorgestellt, auf Formeln wird weitgehend verzichtet. Dies ist jedoch durchaus als Vorteil zu sehen, denn gerade Studienanfängern bereitet das Verständnis der IR-Modelle aufgrund deren Komplexität oft Schwierigkeiten. Nach der Lektüre dieses Kapitels wird man zwar nicht im Detail über die verschiedenen Modelle Bescheid wissen, wird sie jedoch kennen und einordnen können.
    In Kapitel acht werden unterschiedliche Arten von IR-Systemen vorgestellt. Dies sind Online IR-Systeme, CD-ROM-Systeme, OPACs und Internet IR-Systeme, denen der Grossteil dieses Kapitels gewidmet ist. Zu jeder Art von System werden die historische Entwicklung und die Besonderheiten genannt. Bei den Internet-IR-Systemen wird ausführlich auf die besonderen Probleme, die bei diesen im Vergleich zu klassischen IR-Systemen auftauchen, eingegangen. Ein extra Kapitel behandelt die Besonderheiten des Retrievals bei besonderen Dokumentkollektionen und besonderen Formaten. Hier finden sich Informationen zum multilingualen Retrieval und zur Suche nach Multimedia-Inhalten, wobei besonders auf die Unterscheidung zwischen beschreibungs- und inhaltsbasiertem Ansatz der Erschließung solcher Inhalte eingegangen wird. In Kapitel zehn erfährt der Leser mehr über die Stellung des Nutzers in IRR-Prozessen. Die Autorin stellt verschiedene Arten von Suchinterfaces bzw. Benutzeroberflächen und Ansätze der Evaluation der Mensch-Maschine-Interaktion in solchen Systemen vor. Kapitel elf beschäftigt sich ausführlich mit der Evaluierung von IRR-Systemen und stellt die bedeutendsten Test (Cranfield und TREC) vor Ein kurzes abschließendes Kapitel behandelt Ansätze der künstlichen Intelligenz und ihre Anwendung bei IRR-Systemen. Der Aufbau, die knappe, aber dennoch präzise Behandlung des Themas sowie die verständliche Sprache machen dieses Buch zu eine sehr guten Einführung für Studenten in den ersten Semestern, die der englischen Sprache mächtig sind. Besonders positiv hervorzuheben ist die Behandlung auch der aktuellen Themen des IRR wie der Einsatz von Metadaten, die Behandlung von Multimedia-Informationen und der Schwerpunk bei den Internet-IR-Systemen.
    Leider gibt es in deutscher Sprache keinen vergleichbaren Titel. Das Information-Retrieval-Buch von Ferber (2003) ist eher mathematisch orientiert und dürfte Studienanfänger der Informationswissenschaft durch seine große Detailliertheit und der damit einhergehenden großen Anzahl von Formeln eher abschrecken. Es ist eher denjenigen empfohlen, die sich intensiver mit dem Thema beschäftigen möchten. Ähnlich verhält es sich mit dem von manchen gerne genutzten Skript von Fuhr. Das Buch von Gaus (2003) ist mittlerweile schon ein Klassiker, beschäftigt sich aber im wesentlichen mit der Wissensrepräsentation und bietet zudem wenig Aktuelles. So fehlen etwa die Themen Information Retrieval im Internet und Multimedia-Retrieval komplett. Auch die Materialsammlung von Poetzsch (2002) konzentriert sich auf IR in klassischen Datenbanken und strebt zudem auch keine systematische Darstellung des Gebiets an. Zu wünschen wäre also, dass das hier besprochene Buch auch hierzulande in der Lehre Verwendung finden würde, da es den Studierenden einen knappen, gut lesbaren Einblick in das Themengebiet gibt. Es sollte aufgrund der vorbildlichen Aufbereitung des Stoffs auch Vorbild für zukünftige Autoren von Lehrbüchern sein. Und letztlich würde sich der Rezensent eine deutsche Übersetzung dieses Bandes wünschen."
    Isbn
    1-573-87172-9
  13. Weller, K.: Knowledge representation in the Social Semantic Web (2010) 0.01
    0.013382235 = product of:
      0.076947846 = sum of:
        0.034122624 = weight(_text_:buch in 4515) [ClassicSimilarity], result of:
          0.034122624 = score(doc=4515,freq=6.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3114066 = fieldWeight in 4515, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.014848182 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
          0.014848182 = score(doc=4515,freq=22.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.28425696 = fieldWeight in 4515, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.025227265 = weight(_text_:im in 4515) [ClassicSimilarity], result of:
          0.025227265 = score(doc=4515,freq=24.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.37866634 = fieldWeight in 4515, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4515)
        0.0027497804 = product of:
          0.005499561 = sum of:
            0.005499561 = weight(_text_:1 in 4515) [ClassicSimilarity], result of:
              0.005499561 = score(doc=4515,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.09499271 = fieldWeight in 4515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4515)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Footnote
    Rez. in: iwp 62(2011) H.4, S.205-206 (C. Carstens): "Welche Arten der Wissensrepräsentation existieren im Web, wie ausgeprägt sind semantische Strukturen in diesem Kontext, und wie können soziale Aktivitäten im Sinne des Web 2.0 zur Strukturierung von Wissen im Web beitragen? Diesen Fragen widmet sich Wellers Buch mit dem Titel Knowledge Representation in the Social Semantic Web. Der Begriff Social Semantic Web spielt einerseits auf die semantische Strukturierung von Daten im Sinne des Semantic Web an und deutet andererseits auf die zunehmend kollaborative Inhaltserstellung im Social Web hin. Weller greift die Entwicklungen in diesen beiden Bereichen auf und beleuchtet die Möglichkeiten und Herausforderungen, die aus der Kombination der Aktivitäten im Semantic Web und im Social Web entstehen. Der Fokus des Buches liegt dabei primär auf den konzeptuellen Herausforderungen, die sich in diesem Kontext ergeben. So strebt die originäre Vision des Semantic Web die Annotation aller Webinhalte mit ausdrucksstarken, hochformalisierten Ontologien an. Im Social Web hingegen werden große Mengen an Daten von Nutzern erstellt, die häufig mithilfe von unkontrollierten Tags in Folksonomies annotiert werden. Weller sieht in derartigen kollaborativ erstellten Inhalten und Annotationen großes Potenzial für die semantische Indexierung, eine wichtige Voraussetzung für das Retrieval im Web. Das Hauptinteresse des Buches besteht daher darin, eine Brücke zwischen den Wissensrepräsentations-Methoden im Social Web und im Semantic Web zu schlagen. Um dieser Fragestellung nachzugehen, gliedert sich das Buch in drei Teile. . . .
    Insgesamt besticht das Buch insbesondere durch seine breite Sichtweise, die Aktualität und die Fülle an Referenzen. Es ist somit sowohl als Überblickswerk geeignet, das umfassend über aktuelle Entwicklungen und Trends der Wissensrepräsentation im Semantic und Social Web informiert, als auch als Lektüre für Experten, für die es vor allem als kontextualisierte und sehr aktuelle Sammlung von Referenzen eine wertvolle Ressource darstellt." Weitere Rez. in: Journal of Documentation. 67(2011), no.5, S.896-899 (P. Rafferty)
    Isbn
    978-3-598-25180-1
  14. Information und Wissen : global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011 (2010) 0.01
    0.009876767 = product of:
      0.05679141 = sum of:
        0.015665868 = weight(_text_:und in 5190) [ClassicSimilarity], result of:
          0.015665868 = score(doc=5190,freq=48.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.29991096 = fieldWeight in 5190, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5190)
        0.026419718 = weight(_text_:informationswissenschaft in 5190) [ClassicSimilarity], result of:
          0.026419718 = score(doc=5190,freq=8.0), product of:
            0.10616633 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.023567878 = queryNorm
            0.24885213 = fieldWeight in 5190, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5190)
        0.012741691 = weight(_text_:im in 5190) [ClassicSimilarity], result of:
          0.012741691 = score(doc=5190,freq=12.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.19125536 = fieldWeight in 5190, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5190)
        0.0019641288 = product of:
          0.0039282576 = sum of:
            0.0039282576 = weight(_text_:1 in 5190) [ClassicSimilarity], result of:
              0.0039282576 = score(doc=5190,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.06785194 = fieldWeight in 5190, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=5190)
          0.5 = coord(1/2)
      0.17391305 = coord(4/23)
    
    Abstract
    Das 12. Internationale Symposium für Informationswissenschaft (ISI) greift unter dem Tagungsmotto "Information und Wissen: global, sozial und frei?" zentrale informationswissenschaftliche und informationspraktische Fragestellungen auf und stellt sie in einen aktuellen, wissenschaftlichen und gesellschaftspolitischen Kontext. Der Fokus liegt auf Information und Wissen in einer immer stärker vernetzten, globalisierten Welt. Aspekte der Internationalisierung und Mehrsprachigkeit von Wissensprozessen, Fragen der sozialen und technischen Teilhabe und Anschlussfähigkeit sowie des Zugriffs auf Wissensbestände und deren effektiver Anwendung treten dabei in den Mittelpunkt. Es werden beispielsweise die Rolle von sozialen Netzwerken und Fragen des Zugriffs auf Information und Wissen - im Spagat zwischen Open Access und noch fragilen politischen Entscheidungen im Urheberrecht für Wissenschaft und Bildung - diskutiert. Die Beiträge in diesem Tagungsband beleuchten das Generalthema der Tagung aus vielfältigen thematischen Perspektiven und aus der Sichtweise unterschiedlicher Disziplinen. Dabei werden sowohl aktuelle Themenfelder als auch traditionelle Kernthemen der Informationswissenschaft wie Information Retrieval, Informationsverhalten, Mensch-Maschine-Interaktion sowie deren Evaluierung behandelt. Deutlich rücken auch Themen der Fachinformation bzw. der Informationsinfrastruktur in den Vordergrund.
    Content
    Inhalt: - Keynotes Kalervo Järvelin: Information Retrieval: Technology, Evaluation and Beyond Michael Schroeder: Semantic search for the life sciences - Evaluation Pavel Sirotkin: Predicting user preferences Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, Do Wan Kim: Usefiilness Evaluation on Visualization of Researcher Networks Jens Kürsten, Thomas Wilhelm, Maximilian Eibl: Vergleich von IR-Systemkonfigurationen auf Komponentenebene - Informationsinfrastruktur Reinhild Barkey, Erhard Hinrichs, Christina Hoppermann, Thorsten Trippel, Claus Zinn: Komponenten-basierte Metadatenschemata und Facetten-basierte Suche Ina Dehnhard, Peter Weiland: Toolbasierte Datendokumentation in der Psychologie Gertrud Faaß, Ulrich Heid: Nachhaltige Dokumentation virtueller Forschungsumgebungen - Soziale Software Evelyn Droge, Parinaz Maghferat, Cornelius Puschmann, Julia Verbina, Katrin Weller: Konferenz-Tweets Richard Heinen, Ingo Blees: Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften Jens Terliesner, Isabella Peters: Der T-Index als Stabilitätsindikator für dokument-spezifische Tag-Verteilungen
    - Infometrics & Representations Steffen Hennicke, Marlies Olensky, Viktor de Boer, Antoine Isaac, Jan Wielemaker: A data model for cross-domain data representation Stefanie Haustein: Wissenschaftliche Zeitschriften im Web 2.0 " Philipp Leinenkugel, Werner Dees, Marc Rittberger: Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar - Information Retrieval Ari Pirkola: Constructing Topic-specific Search Keyphrase: Suggestion Tools for Web Information Retrieval Philipp Mayr, Peter Mutschke, Vivien Petras, Philipp Schaer, York Sure: Applying Science Models for Search Daniela Becks, Thomas Mandl, Christa Womser-Hacker: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen Andrea Ernst-Gerlach, Dennis Korbar, Ära Awakian: Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung für die Suche in historischen Dokumenten - Multimedia Peter Schultes, Franz Lehner, Harald Kosch: Effects of real, media and presentation time in annotated video Marc Ritter, Maximilian Eibl: Ein erweiterbares Tool zur Annotation von Videos Margret Plank: AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe Achim Oßwald: Significant properties digitaler Objekte
    - Information Professionals & Usage Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi: A survey of internet searching skills among intermediate school students: How librarians can help Matthias Görtz: Kontextspezifische Erhebung von aufgabenbezogenem Informationssuchverhalten Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner: Evaluation von Summarizing-Systemen Robert Mayo Hayes, Karin Karlics, Christian Schlögl: Bedarf an Informationsspezialisten in wissensintensiven Branchen der österreichischen Volkswirtschaft - User Experience fit Behavior Isto Huvila: Mining qualitative data on human information behaviour from the Web Rahel Birri Blezon, Rene Schneider: The Social Persona Approach Elena Shpilka, Ralph Koelle, Wolfgang Semar: "Mobile Tagging": Konzeption und Implementierung eines mobilen Informationssystems mit 2D-Tags Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl: User Interface Prototyping Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum: Analyse und Evaluierung der Nutzung von Sitelinks Bernard Bekavac, Sonja Öttl, Thomas Weinhold: Online-Beratungskomponente für die Auswahl von Usability-Evaluationsmethoden
    - Information Domains & Concepts Michal Golinski: Use, but verify Mohammad Nazim, Bhaskar Mukherjee: Problems and prospects of implementing knowledge management in university libraries: A case study of Banaras Hindu University Library System Daniela Becks, Julia Maria Schulz: Domänenübergreifende Phrasenextraktion mithilfe einer lexikonunabhängigen Analysekomponente Wolfram Sperber, Bernd Wegner: Content Analysis in der Mathematik: Erschließung und Retrieval mathematischer Publikationen Jürgen Reischer: Das Konzept der Informativität - Information Society Joseph Adjei, Peter Tobbin: Identification Systems Adoption in Africa; The Case of Ghana Alexander Botte, Marc Rittberger, Christoph Schindler: Virtuelle Forschungsumgebungen Rainer Kuhlen: Der Streit um die Regelung des Zweitveröffentlichungsrechts im Urheberrecht - E-Learning / Social Media Marketing Tobias Fries, Sebastian Boosz, Andreas Henrich: Integrating industrial partners into e-teaching efforts Christopher Stehr, Melanie Hiller: E-Learningkurs Globalisierung Manuel Burghardt, Markus Heckner, Tim Schneidermeier, Christian Wolff: Social-Media-Marketing im Hochschulbereich
    - Posterpräsentationen Peter Böhm, Marc Rittberger: Nutzungsanalyse des Deutschen Bildungsservers und Konzeption eines Personalisierungsangebots Andreas Bohne-Lang, Elke Lang: A landmark in biomedical information: many ways are leading to PubMed Ina Blümel, Rene Berndt: 3 D-Modelle in bibliothekarischen Angeboten Nicolai Erbs, Daniel Bär, Iryna Gurevych, Torsten Zesch: First Aid for Information Chaos in Wikis Maria Gäde, Juliane Stiller: Multilingual Interface Usage Jasmin Hügi, Rahel Birri Blezon, Rene Schneider: Fassettierte Suche in Benutzeroberflächen von digitalen Bibliotheken Hanna Knäusl: Ordnung im Weltwissen Isabel Nündel, Erich Weichselgartner, Günter Krampen: Die European Psychology Publication Platform Projektteam IUWIS: IUWIS (Infrastruktur Urheberrecht in Wissenschaft und Bildung): Urheberrecht zwischen Fakten und Diskursen Helge Klaus Rieder: Die Kulturgüterdatenbank der Region Trier Karl Voit, Keith Andrews, Wolfgang Wintersteller, Wolfgang Slany: TagTree: Exploring Tag-Based Navigational Stnictures Jakob Voß, Mathias Schindler, Christian Thiele: Link Server aggregation with BEACON
    Footnote
    Rez. in: Mitt. VÖB. 65(2012) H.1, S.109-113 (O. Oberhauser).
    Series
    Schriften zur Informationswissenschaft; Bd.58
  15. Langville, A.N.; Meyer, C.D.: Google's PageRank and beyond : the science of search engine rankings (2006) 0.01
    0.009763666 = product of:
      0.074854776 = sum of:
        0.03624891 = weight(_text_:katalogisierung in 6) [ClassicSimilarity], result of:
          0.03624891 = score(doc=6,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.2685084 = fieldWeight in 6, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
        0.03624891 = weight(_text_:katalogisierung in 6) [ClassicSimilarity], result of:
          0.03624891 = score(doc=6,freq=4.0), product of:
            0.13500103 = queryWeight, product of:
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.023567878 = queryNorm
            0.2685084 = fieldWeight in 6, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.7281795 = idf(docFreq=390, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6)
        0.0023569546 = product of:
          0.0047139092 = sum of:
            0.0047139092 = weight(_text_:1 in 6) [ClassicSimilarity], result of:
              0.0047139092 = score(doc=6,freq=2.0), product of:
                0.057894554 = queryWeight, product of:
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.023567878 = queryNorm
                0.08142233 = fieldWeight in 6, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4565027 = idf(docFreq=10304, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=6)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    BK
    06.70 / Katalogisierung / Bestandserschließung
    Classification
    06.70 / Katalogisierung / Bestandserschließung
    Content
    Inhalt: Chapter 1. Introduction to Web Search Engines: 1.1 A Short History of Information Retrieval - 1.2 An Overview of Traditional Information Retrieval - 1.3 Web Information Retrieval Chapter 2. Crawling, Indexing, and Query Processing: 2.1 Crawling - 2.2 The Content Index - 2.3 Query Processing Chapter 3. Ranking Webpages by Popularity: 3.1 The Scene in 1998 - 3.2 Two Theses - 3.3 Query-Independence Chapter 4. The Mathematics of Google's PageRank: 4.1 The Original Summation Formula for PageRank - 4.2 Matrix Representation of the Summation Equations - 4.3 Problems with the Iterative Process - 4.4 A Little Markov Chain Theory - 4.5 Early Adjustments to the Basic Model - 4.6 Computation of the PageRank Vector - 4.7 Theorem and Proof for Spectrum of the Google Matrix Chapter 5. Parameters in the PageRank Model: 5.1 The a Factor - 5.2 The Hyperlink Matrix H - 5.3 The Teleportation Matrix E Chapter 6. The Sensitivity of PageRank; 6.1 Sensitivity with respect to alpha - 6.2 Sensitivity with respect to H - 6.3 Sensitivity with respect to vT - 6.4 Other Analyses of Sensitivity - 6.5 Sensitivity Theorems and Proofs Chapter 7. The PageRank Problem as a Linear System: 7.1 Properties of (I - alphaS) - 7.2 Properties of (I - alphaH) - 7.3 Proof of the PageRank Sparse Linear System Chapter 8. Issues in Large-Scale Implementation of PageRank: 8.1 Storage Issues - 8.2 Convergence Criterion - 8.3 Accuracy - 8.4 Dangling Nodes - 8.5 Back Button Modeling
  16. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.01
    0.009273863 = product of:
      0.07109962 = sum of:
        0.047761723 = weight(_text_:buch in 4323) [ClassicSimilarity], result of:
          0.047761723 = score(doc=4323,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.43587846 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.010853632 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.010853632 = score(doc=4323,freq=4.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.012484257 = weight(_text_:im in 4323) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4323,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.13043478 = coord(3/23)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Content
    Das Buchprojekt entstand im Rahmen des Forschungsprojektes Theseus (Teilprojekt Alexandria). - Als Online Publikation vgl.: http://www.bui.haw-hamburg.de/fileadmin/user_upload/lewandowski/Web20-Buch/lewandowski-maass.pdf. Rez. in: ZfBB 56(2009) H.2, S.134-135 (K. Lepsky)
  17. Mayr, P.: Information Retrieval-Mehrwertdienste für Digitale Bibliotheken: : Crosskonkordanzen und Bradfordizing (2010) 0.01
    0.0084855575 = product of:
      0.065055944 = sum of:
        0.03377264 = weight(_text_:buch in 4910) [ClassicSimilarity], result of:
          0.03377264 = score(doc=4910,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.3082126 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.018799042 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.018799042 = score(doc=4910,freq=12.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.35989314 = fieldWeight in 4910, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
        0.012484257 = weight(_text_:im in 4910) [ClassicSimilarity], result of:
          0.012484257 = score(doc=4910,freq=2.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.18739122 = fieldWeight in 4910, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4910)
      0.13043478 = coord(3/23)
    
    Abstract
    In dieser Arbeit werden zwei Mehrwertdienste für Suchsysteme vorgestellt, die typische Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden in diesem Buch ausführlich beschrieben und evaluiert. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Ergebnisse dieser Arbeit sind in das GESIS-Projekt IRM eingeflossen.
    Content
    Die vorliegende Arbeit wurde von der Philosophischen Fakultät I, der Humboldt-Universität zu Berlin im Jahr 2009 als Dissertation zur Erlangung des akademischen Grades Doctor philosophiae (Dr. phil.) angenommen.
  18. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.01
    0.0070231725 = product of:
      0.05384432 = sum of:
        0.031841148 = weight(_text_:buch in 506) [ClassicSimilarity], result of:
          0.031841148 = score(doc=506,freq=4.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.29058564 = fieldWeight in 506, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.010232903 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.010232903 = score(doc=506,freq=8.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.011770271 = weight(_text_:im in 506) [ClassicSimilarity], result of:
          0.011770271 = score(doc=506,freq=4.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.17667414 = fieldWeight in 506, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
      0.13043478 = coord(3/23)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  19. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.01
    0.006520106 = product of:
      0.04998748 = sum of:
        0.022515094 = weight(_text_:buch in 4731) [ClassicSimilarity], result of:
          0.022515094 = score(doc=4731,freq=2.0), product of:
            0.109575786 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.023567878 = queryNorm
            0.20547508 = fieldWeight in 4731, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.008861954 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.008861954 = score(doc=4731,freq=6.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.018610433 = weight(_text_:im in 4731) [ClassicSimilarity], result of:
          0.018610433 = score(doc=4731,freq=10.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.27934635 = fieldWeight in 4731, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.13043478 = coord(3/23)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  20. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.0055186325 = product of:
      0.042309515 = sum of:
        0.007674677 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.007674677 = score(doc=4332,freq=2.0), product of:
            0.052235067 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.023567878 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.024968514 = weight(_text_:im in 4332) [ClassicSimilarity], result of:
          0.024968514 = score(doc=4332,freq=8.0), product of:
            0.066621356 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.023567878 = queryNorm
            0.37478244 = fieldWeight in 4332, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.009666322 = product of:
          0.019332644 = sum of:
            0.019332644 = weight(_text_:29 in 4332) [ClassicSimilarity], result of:
              0.019332644 = score(doc=4332,freq=2.0), product of:
                0.08290443 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.023567878 = queryNorm
                0.23319192 = fieldWeight in 4332, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4332)
          0.5 = coord(1/2)
      0.13043478 = coord(3/23)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
    Date
    12. 2.2011 17:29:27
    Footnote
    Zugl.: Dortmund, Univ., Dipl.-Arb., 2006 u.d.T.: Hüsken, Peter: Information-Retrieval im Semantic-Web.

Years

Languages

  • e 39
  • d 37

Types

  • m 74
  • s 24
  • i 2
  • d 1
  • el 1
  • r 1
  • More… Less…

Subjects

Classifications