Search (43 results, page 2 of 3)

  • × classification_ss:"06.74 / Informationssysteme"
  • × year_i:[2000 TO 2010}
  1. Information: Droge, Ware oder Commons? : Wertschöpfungs- und Transformationsprozesse auf den Informationsmärkten ; Proceedings des 11. Internationalen Symposiums für Informationswissenschaft (ISI 2009) ; Konstanz, 1. - 3. April 2009 / [Hochschulverband für Informationswissenschaft (HI) e.V., Konstanz] (2009) 0.02
    0.022445817 = product of:
      0.089783266 = sum of:
        0.018399429 = weight(_text_:und in 2930) [ClassicSimilarity], result of:
          0.018399429 = score(doc=2930,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 2930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2930)
        0.018399429 = weight(_text_:und in 2930) [ClassicSimilarity], result of:
          0.018399429 = score(doc=2930,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 2930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2930)
        0.016185544 = weight(_text_:der in 2930) [ClassicSimilarity], result of:
          0.016185544 = score(doc=2930,freq=24.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.29922754 = fieldWeight in 2930, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2930)
        0.018399429 = weight(_text_:und in 2930) [ClassicSimilarity], result of:
          0.018399429 = score(doc=2930,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 2930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2930)
        0.018399429 = weight(_text_:und in 2930) [ClassicSimilarity], result of:
          0.018399429 = score(doc=2930,freq=32.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.34282678 = fieldWeight in 2930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2930)
      0.25 = coord(5/20)
    
    Abstract
    Das 11. Internationale Symposium für Informationswissenschaft (151) findet vom 1. bis 3. April 2009 an der Universität Konstanz statt. Die Tagung ist eine Gemeinschaftsveranstaltung des Hochschulverbandes für Informationswissenschaft (HI) und der IuK-Initiative Wissenschaft. In insgesamt 17 Sektionen werden über 33 Vorträge gehalten, die nach strengem Reviewing vom Programmkomitee ausgewählt wurden. Dazu gibt es viele Sondersektionen, so Doktoranden-, Poster- und Firmenpräsentationen.
    BK
    06.00 / Information und Dokumentation: Allgemeines
    Classification
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    06.00 / Information und Dokumentation: Allgemeines
    Content
    - Recherche und Web Rita Strebe: Empirische Untersuchung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web Teresa Märt!, Christa Womser-Hacker, Thomas Mandl: Mehrsprachige Suche in Social-Tagging-Systemen Christian Maaß, Dirk Lewandowski: Frage-Antwort-Dienste als alternativer Suchansatz? Jürgen Reischer: EXCERPT - a Within-Document Retrieval System Using Summarization Techniques - Fachportale - Open Access I Stefan Baerisch, Peter Mutschke, Maximilian Stempfliuber: Informationstechnologische Aspekte der Heterogenitätsbehandlung in Fachportalen Doris Bambey: Open Access in der Erziehungswissenschaft - Voraussetzungen und Modelle der Funktionsteilung und der Verwertung von Wissen Patrick Lay: Integration heterogener Anwendungen in Fachportalen am Beispiel Sowiport Martin Uhl, Erich Weichselgartner: Aufbau einer innovativen Publikations-Infrastrukrur für die europäische Psychologie
    - Fachportale - Open Access II Werner Dees, Marc Rittberger: Anforderungen an bibliographische Datenbanken in Hinblick auf szientometrische Analysen am Beispiel der FIS Bildung Literaturdatenbank Joachim Pfister, Thomas Weinhold, Hans-Dieter Zimmermann: Open Access in der Schweiz Jan Steinberg: Instrumente der Überzeugungsarbeit - Kollaboration, Partizipation Christina Bieber, Harald Kraemer, Jens M. Lill, Werner Schweibenz: Museum 2.0? Hans Giessen: Primingeffekte in einer Simulation computergestützten kooperativen Arbeitens Christoph Mandl, Christoph Pfeiffer, Christian Wolff: Partizipative Leitbildentwicklung und Hochschulkommunikation - Buchwirtschaft, Informationswirtschaft Hans-Dieter Zimmermann: Die Digitalisierung der Wertschöpfung auf dem Buchmarkt Christoph Bläsi: E-Books und die Stakeholder des Buches Karin Ludewig: Das Wissensobjekt im Zeitalter seiner digitalen Produzierbarkeit
    - Ausbildung, E-Learning I Isabella Peters, Sonja Gust von Loh, Katrin Weller: Multimediale und kollaborative Lehr- und Lernumgebungen in der akademischen Ausbildung Nina Heinze: Informationskompetenz: mehr als die Nutzung von Informationen Kirsten Scherer Auberson, Sonja Hierl: Lässt sich ein Zuwachs an Informationskompetenz messen? - Ausbildung, E-Learning II Sabina Jeschke, Nicole Natho, Olivier Pfeiffer, Christian Schröder: Moderne Studienform Achim Oßwald, Dagmar Otto, Nikiaus Stettier: Qualitätssicherungsstrategie für kooperativ erstellte E-Learning-Kurse Joachim Griesbaum, Wolfgang Semar, Ralph Kölle: E-Learning 2.0 - Doktoranden-Vorträge - Posterpräsentationen - Studentenpräsentationen (Abstracts)
    RSWK
    Informations- und Dokumentationswissenschaft (SWB)
    RVK
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    Subject
    Informations- und Dokumentationswissenschaft (SWB)
  2. New directions in cognitive information retrieval (2005) 0.02
    0.02225041 = product of:
      0.08900164 = sum of:
        0.01799604 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.01799604 = score(doc=338,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.01799604 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.01799604 = score(doc=338,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.017017482 = weight(_text_:der in 338) [ClassicSimilarity], result of:
          0.017017482 = score(doc=338,freq=52.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.31460786 = fieldWeight in 338, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.01799604 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.01799604 = score(doc=338,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
        0.01799604 = weight(_text_:und in 338) [ClassicSimilarity], result of:
          0.01799604 = score(doc=338,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=338)
      0.25 = coord(5/20)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  3. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.02
    0.022167794 = product of:
      0.08867118 = sum of:
        0.01799604 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.01799604 = score(doc=641,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.01799604 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.01799604 = score(doc=641,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.016687015 = weight(_text_:der in 641) [ClassicSimilarity], result of:
          0.016687015 = score(doc=641,freq=50.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.30849838 = fieldWeight in 641, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.01799604 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.01799604 = score(doc=641,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.01799604 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.01799604 = score(doc=641,freq=60.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
      0.25 = coord(5/20)
    
    Abstract
    Das vorliegende Werk ist der erste Band in der Reihe "Branchenreports" der Semantic Web School. Diese Reihe, die in Zusammenarbeit mit Branchenexperten entwickelt wurde, verfolgt das Ziel, in regelmäßigen Abständen die Bedeutung semantischer Technologien in ausgewählten Branchen und Communities zu analysieren und zu durchleuchten. Damit sollen dem interessierten Leser in erster Linie ein Überblick und Einstiegspunkte geboten werden: Die Branchenreports helfen, sich in einem emergenten Umfeld besser orientieren zu können, sie zeigen Entwicklungspfade an, entlang welcher sich Branchen bewegen, die vermehrt auf den Einsatz semantischer Informationstechnologien setzen. Dieser Branchenreport beschäftigt sich mit dem Bibliotheks-, Informationsund Dokumentationswesen (BID) und es ist kein Zufall, dass diese Branche als erste durchleuchtet wird, sind doch hier die Wurzeln der professionellen Wissensorganisation zu finden. Nun, im Zeitalter der Digitalisierung und des Internets, steht diese Community vor neuen, großen Herausforderungen und Möglichkeiten. Gerade im Umfeld des Semantic Web zeigt sich, dass die Erfahrungen aus dem BID-Bereich einen wichtigen Beitrag leisten können, soll die Entwicklung des Internets der nächsten Generation nicht nur von der Technik geprägt werden. Dieser Band möchte die Neugierde all jener wecken, die sich vor neuen Technologien nicht verschließen, und darauf aufmerksam machen, dass die Möglichkeiten, Information und Wissen zu organisieren, im 21. Jahrhundert gänzlich neue sein werden.
    Content
    Inhaltsverzeichnis 1. Einleitung 2. Bibliothekspolitik 3. Begriffsdefinitionen 3.1. Bibliothek - 3.2. Archiv - 3.3. Museum - 3.4. Information und Dokumentation - 3.5. Information - 3.6. Semantik und semantische Technologien - 3.7. Ontologie - 3.8. Recall und Precision 4. Bibliotheken aus statistischer Sicht - Kennzahlen 5. Bibliographische Tools 5.1. Austauschformate 5.1.1. MAB / MAB2 - 5.1.2. Allegro-C - 5.1.3. MARC 2 - 5.1.4. Z39.50 - 5.1.5. Weitere Formate 5.2. Kataloge / OPACs 5.2.1. Aleph 500 - 5.2.2. Allegro-C - 5.2.3. WorldCat beta 5.3. Dokumentationssysteme 5.4. Suchmaschinen 5.4.1. Convera und ProTerm - 5.4.2. APA Online Manager - 5.4.3. Google Scholar - 5.4.4. Scirus - 5.4.5. OAIster - 5.4.6. GRACE 5.5. Informationsportale 5.5.1. iPort - 5.5.2. MetaLib - 5.5.3. Vascoda - 5.5.4. Dandelon - 5.5.5. BAM-Portal - 5.5.6. Prometheus 6. Semantische Anreicherung 6.1. Indexierung - 6.2. Klassifikation - 6.3. Thesauri 38 - 6.4. Social Tagging 7. Projekte 7.1. Bibster - 7.2. Open Archives Initiative OAI - 7.3. Renardus - 7.4. Perseus Digital Library - 7.5. JeromeDL - eLibrary with Semantics 8. Semantische Technologien in BAM-InstitutionenÖsterreichs 8.1. Verbundkatalog des Österreichischen Bibliothekenverbunds - 8.2. Bibliotheken Online - WebOPAC der Öffentlichen Bibliotheken - 8.3. Umfrage-Design - 8.4. Auswertung 9. Fazit und Ausblick 10. Quellenverzeichnis 11. Web-Links 12. Anhang Vgl.: http://www.semantic-web.at/file_upload/1_tmpphp154oO0.pdf.
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
    Imprint
    Wien : Eigenverlag der Semantic Web School
    RSWK
    Information und Dokumentation / Semantic Web (GBV)
    Series
    Reihe Branchenreport der Semantic Web School
    Subject
    Information und Dokumentation / Semantic Web (GBV)
  4. Jeanneney, J.-N.: Googles Herausforderung : Für eine europäische Bibliothek (2006) 0.02
    0.0200449 = product of:
      0.0801796 = sum of:
        0.015770938 = weight(_text_:und in 46) [ClassicSimilarity], result of:
          0.015770938 = score(doc=46,freq=72.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 46, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.015770938 = weight(_text_:und in 46) [ClassicSimilarity], result of:
          0.015770938 = score(doc=46,freq=72.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 46, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.017095843 = weight(_text_:der in 46) [ClassicSimilarity], result of:
          0.017095843 = score(doc=46,freq=82.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.31605655 = fieldWeight in 46, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.015770938 = weight(_text_:und in 46) [ClassicSimilarity], result of:
          0.015770938 = score(doc=46,freq=72.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 46, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
        0.015770938 = weight(_text_:und in 46) [ClassicSimilarity], result of:
          0.015770938 = score(doc=46,freq=72.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.29385152 = fieldWeight in 46, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=46)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: Frankfurter Rundschau. Nr.66 vom 18.3.2006, S.17. (M. Meister): "Es ist eine kleine Kampfschrift, ein Pamphlet, geschrieben mit heißer, französischer Feder. Doch in Deutschland tut man es bereits ab: als Fortsetzung des müßigen Kulturkampfes zwischen Frankreich und Amerika, als "kulturkritisches Ressentiment". "Wo ist der Skandal", titelte die Süddeutsche Zeitung, als Jean-Noel Jeanneney sein Buch Googles Herausforderung unlängst in der französischen Botschaft in Berlin vorstellte. Man kann hierzulande nichts Böses darin erkennen, wenn die amerikanische Firma Google gemeinsam mit vier renommierten amerikanischen und der Universitätsbibliothek von Oxford innerhalb weniger Jahre 15 Millionen Bücher digitalisieren will. "So what", stöhnen die Deutschen, während die Franzosen auf die Barrikaden steigen. Aus französischer Perspektive verbirgt sich hinter dem im Winter 2004 angekündigten Projekt, "Google Print" mit Namen, tatsächlich ein kulturelles Schreckenszenario, dessen Folgen in der Öffentlichkeit breit diskutiert wurden. Von kultureller Hegemonie war die Rede, von der ewigen Dominanz der Amerikaner über die Europäer, sprich des Geldes über die Kultur. Der in Frankreich lebende Schriftsteller Alberto Manguel sah sogar den Albtraum seines Kollegen Jorge Louis Borges verwirklicht, der in seiner Erzählung Die Bibliothek von Babel genau davon geträumt hatte: eine Bibliothek, in der alles vorhanden ist, so viele Bücher, dass man kein einziges mehr wird finden können. Wo der Skandal ist? Nirgendwo, würde Jeanneney antworten. Denn darum geht es ihm tatsächlich nicht. Er plädiert vielmehr dafür, die Herausforderung anzunehmen, und Google das Feld nicht allein zu überlassen. Jeanneney, Leiter der französischen Nationalbibliothek und zweifellos Kenner der Materie, beschreibt deshalb eindringlich die Konsequenzen einer Digitalisierung des schriftlichen Kulturerbes unter amerikanisch-kommerziellem Monopol. Er hat diese kurze Kampfschrift, die soeben auf Deutsch bei Wagenbach erschienen ist, gewissermaßen als Flaschenpost benutzt, um die Verantwortlichen anderer Länder aufzurütteln und für ein gemeinsames Projekt zu gewinnen.
    Sein Feldzug war erfolgreich: Europa will eine gemeinsame virtuelle Bibliothek aufbauen, an der sich nur die portugiesische Nationalbibliothek und die British Library nicht beteiligen wollen. Die Staatschefs sind sich einig, die Kulturminister im Gespräch. Es fehlen natürlich noch das Geld und sicher auch der Glaube daran, dass die träge Brüsseler Maschinerie es mit einem agilen amerikanischen Unternehmen aufnehmen könnte. Aber auch dort läuft nicht alles wie geplant: Selbst amerikanische Verleger haben gegen die Verletzung des Urheberrechtes protestiert und für Verzögerungen gesorgt. Jeanneney sieht in einem amerikanischen Alleingang und dem De-facto-Monopol von Google vor allem drei Gefahren: Erstens eine Hierarchisierung und Ordnung des Wissens nach rein kommerziellen Gesichtspunkten. "Kultur heißt nicht, alles kunterbunt auf einen Wühltisch zu schütten", sagt Jeanneney. Wissen und Kulturerbe müsse organisiert, das Angebot hierarchisiert werden. Die zweite kurzfristige Gefahr sieht er in der angelsächsischen Dominanz, in der Tatsache, dass die Trefferliste vor allem englische Texte anzeigen wird oder solche, die unter angloamerikanischem Blickwinkel ausgewählt wurden. Langfristig müsse man sich vor allem fragen, und darin sieht er die dritte Gefahr, wie ein Unternehmen, das so schnell eingehen kann wie es entstanden ist, den Fortbestand dieses Projektes sichern will. Jeanneney fordert die Staaten deshalb auf, sich einzumischen und diesem rein am Kapital orientierten Projekt einen längeren Atem einzuhauchen, "den Atem von mehreren Generationen". Jeanneneys Versuch, hinter dem moralischen Deckmäntelchen die materiellen Interessen von Google zu benennen, wird in Deutschland als "kulturkritisches Ressentiment" abgetan. Drängt sich die Frage auf, ob es sich in diesem Fall um ein antiamerikanisches oder womöglich eher um ein antifranzösisches Ressentiment handelt. Frankreichs Sozialromantiker und Kulturkämpfer stören offensichtlich den ungebrochen naiven Glauben an das messianische Versprechen des Kapitalismus, nach den Waren nun auch das Wissen der Welt zu verteilen. Es sieht aus, als gäbe es alles umsonst. Aber Google lässt sich seine Informationsbeschaffung bekanntlich bezahlen. Es gilt eben nicht das Gesetz der Enzyklopädie, sondern immer noch die Logik des Dow Jones."
    Weitere Rez. in: ZfBB 53(2006) H.3/4, S.215-217 (M. Hollender): "Die Aversion des Präsidenten der Französischen Nationalbibliothek, Jean-Noël Jeanneney, gegen die Pläne von Google zur Massendigitalisierung kann nach der breiten Erörterung in der Tagespresse als zumindest in Grundzügen bekannt vorausgesetzt werden. Nunmehr liegt seine im März 2005 entstandene »Kampfschrift« (S.7) aktualisiert und mit einem Nachwort von Klaus-Dieter Lehmann versehen, auch in einer deutschen Übersetzung vor. So viel vorab: selten erhält man für 9,90 Euro so wenig und zugleich so viel: so viel Polemik, Selbstpreisgabe und Emphase und so wenig konkrete strategisch weiterführende Ideen. Dem Leser fällt vor allem der plumpe Antiamerikanismus, der dem gesamten Büchlein zugrunde liegt, über kurz oder lang unangenehm auf. Jeanneney moniert die »unvermeidliche amerikanische Ichbezogenheit« (S. 9). Wer aber mag es Google verdenken, sein Projekt zunächst mit angloamerikanischen Bibliotheken zu starten? Die Bereitschaft der britischen Boolean Library, ihre exzellenten Bestände vor 1900 von Google ebenfalls digitalisieren zu lassen, wird von Jeanneney im Stile einer Verschwörungstheorie kommentiert: »Wieder einmal wurde uns die altbekannte angloamerikanische Solidarität vorgeführt.« (S.19) Mit derselben Emphase könnte man sich darüber freuen, dass Google sich der Bestände hochbedeutender Forschungsbibliotheken versichert - nicht aber Jeanneney. Fazit: die »US-Dominanz, die mit einer mehr oder weniger bewussten Arroganz einhergeht«, bewirke, dass »alles, was der amerikanischen Weltsicht widerspricht, aussortiert« werde (S. 23). Wer derart voreingenommen wie Jeanneney an die Google-Pläne herangeht, verbaut sich selber die Chancen auf eine konstruktive und kooperative Lösung des Google-Problems. ...
    Es empfiehlt sich, an die Google-Vorhaben mit einer gehörigen Portion Unvoreingenommenheit heranzutreten und von einem Projekt, das noch in den Kinderschuhen steckt, keine Wunderdinge zu erwarten; unbestreitbare Leistungen aber auch als solche würdigend anzuerkennen. ... Das in Digitalisierungsfragen noch immer schläfrige, wenn nicht gar schlafende Europa, ist zweifellos zunächst von Google geweckt und anschließend von Jeanneney alarmiert worden. Jeanneney hat aus einem zunächst harmlos anmutenden privatwirtschaftlichen Vorhaben ein Politikum gemacht; dass er hierbei immer wieder über sein hehres Ziel einer europäischen Gegenoffensive hinausschießt, kann die Debatte nur beleben. Er wendet sich gegen den neoliberalen Glauben, die Kräfte des freien kapitalistischen Marktes seien in der Lage, allen Seiten gerecht zu werden, und fordert eine Dominanz des staatlichen Sektors, der zumindest komplementär tätig werden müsse, um die Auswüchse von Google gegensteuernd zu bremsen. Dort, wo Jeanneney die antiamerikanische Schelte verlässt und die europäische Antwort skizziert, zeigen sich seine Stärken. Google arbeitet zwar mit Bibliotheken zusammen, ob die Intensität dieser Kooperation aber ausreichend hoch ist, um bewährte bibliothekarische Standards verwirklichen zu können, ist zumindest fraglich. Die >Suchmaske> erlaubt keine spezifizierenden Anfragen; die formale Erschließung der digitalisierten Werke ist völlig unzureichend; eine inhaltliche Erschließung existiert nicht. Hier könnten die europäischen Bibliothekare in der Tat ihre spezifischen Kenntnisse einbringen und statt der von Jeanneney kritisierten Bereitstellung »zusammenhangsloser] Wissensfragmente« (S.14) eine Anreicherung der Digitalisate mit Metadaten anbieten, die das Datenmeer filtert. Wer aber - in der Bibliothekslandschaft sicherlich unstrittig - die exakte Katalogisierung der Digitalisate und ihre Einbindung in Bibliothekskataloge wünscht, damit die Bücher nicht nur über Google, sondern auch über die Portale und Katalogverbünde zugänglich sind, sollte auf Google zugehen, anstatt Google zu provozieren.
    Konkurrenz belebt das Geschäft, so auch im vorliegenden Fall. Was freilich verhindert werden muss, ist zunächst, auf bibliothekarischer Seite hochnäsig und beleidigt zu reagieren, denn was Google allein bisher konzipiert und realisiert hat, ist in seiner Grundidee viel zu wertvoll, als dass man es pauschal in Misskredit bringen dürfte. Eine deutsche bzw. gesamteuropäische Initiative dürfte bei der Massendigitalisierung von Altbestand nicht blind >irgendwelche< Magazinbestände bündeln, sondern intellektuellen Aufwand betreiben, um langfristig belastbare und plausible Kriterien zu entwickeln, was digitalisiert werden soll und was vorerst nicht. Erst wer die Relevanz des jeweiligen Buches für die Forschung, die Seltenheit des Werkes, seine Nachfrage innerhalb der Forscherszene, seine allgemeine kulturelle Bedeutung sowie den konservatorischen Zustand der heute erhaltenen Exemplare in Betracht zieht, schafft einen qualitativen Mehrwert gegenüber Google. ... Google macht neugierig - und das allein ist wünschenswert und erfreulich. Zugleich fordert uns Google massiv heraus: sicherlich für manche unerwünscht und lästig, objektiv betrachtet aber die vielleicht einzige Möglichkeit, die Verzögerung Europas in Digitalisierungsfragen zu stoppen. Dem Verlag Wagenbach sei gedankt, die Kontroverse um Google durch eine Übersetzung der streitbaren Thesen Jeanneneys auch in Deutschland entfacht zu haben."
    Vgl. auch Jeanneney, J.-N., M. Meister: Ein Kind der kommerziellen Logik: Der Präsident der Pariser Bibliothèque Nationale de France, Jean-Noël Jeanneney, über "Google print" und eine virtuelle, europäische Bibliothek. [Interview]. In: Frankfurter Rundschau. Nr.208 vom 7.9.2005, S.17.
    Issue
    Vom Autor für die dt. Ausg. aktualisiert und mit einem Nachw. von Klaus-Dieter Lehmann. Aus d. Franz. von Sonja Finck und Nathalie Mälzer-Semlinger.
  5. Broughton, V.: Essential thesaurus construction (2006) 0.02
    0.017407604 = product of:
      0.069630414 = sum of:
        0.01340272 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.01340272 = score(doc=2924,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24972577 = fieldWeight in 2924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.01340272 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.01340272 = score(doc=2924,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24972577 = fieldWeight in 2924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.016019532 = weight(_text_:der in 2924) [ClassicSimilarity], result of:
          0.016019532 = score(doc=2924,freq=72.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.29615843 = fieldWeight in 2924, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.01340272 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.01340272 = score(doc=2924,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24972577 = fieldWeight in 2924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
        0.01340272 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.01340272 = score(doc=2924,freq=52.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.24972577 = fieldWeight in 2924, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
    In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
    Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
    In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003) 0.02
    0.016444236 = product of:
      0.054814115 = sum of:
        0.009293114 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
          0.009293114 = score(doc=1397,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 1397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.009293114 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
          0.009293114 = score(doc=1397,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 1397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.009439601 = weight(_text_:der in 1397) [ClassicSimilarity], result of:
          0.009439601 = score(doc=1397,freq=4.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.17451303 = fieldWeight in 1397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.009293114 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
          0.009293114 = score(doc=1397,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 1397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.009293114 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
          0.009293114 = score(doc=1397,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 1397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1397)
        0.00820206 = product of:
          0.01640412 = sum of:
            0.01640412 = weight(_text_:22 in 1397) [ClassicSimilarity], result of:
              0.01640412 = score(doc=1397,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.19345059 = fieldWeight in 1397, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1397)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Classification
    ST 325 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Multimedia
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
    Date
    22. 3.2008 14:29:25
    RVK
    ST 325 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Multimedia
    ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
  7. Research and advanced technology for digital libraries : 10th European conference ; proceedings / ECDL 2006, Alicante, Spain, September 17 - 22, 2006 ; proceedings (2006) 0.02
    0.016187198 = product of:
      0.053957324 = sum of:
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.005339844 = weight(_text_:der in 2428) [ClassicSimilarity], result of:
          0.005339844 = score(doc=2428,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.09871948 = fieldWeight in 2428, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.0105139585 = weight(_text_:und in 2428) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2428,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2428, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2428)
        0.006561648 = product of:
          0.013123296 = sum of:
            0.013123296 = weight(_text_:22 in 2428) [ClassicSimilarity], result of:
              0.013123296 = score(doc=2428,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.15476047 = fieldWeight in 2428, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2428)
          0.5 = coord(1/2)
      0.3 = coord(6/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    Content
    Inhalt u.a.: Architectures I Preservation Retrieval - The Use of Summaries in XML Retrieval / Zoltdn Szldvik, Anastasios Tombros, Mounia Laimas - An Enhanced Search Interface for Information Discovery from Digital Libraries / Georgia Koutrika, Alkis Simitsis - The TIP/Greenstone Bridge: A Service for Mobile Location-Based Access to Digital Libraries / Annika Hinze, Xin Gao, David Bainbridge Architectures II Applications Methodology Metadata Evaluation User Studies Modeling Audiovisual Content Language Technologies - Incorporating Cross-Document Relationships Between Sentences for Single Document Summarizations / Xiaojun Wan, Jianwu Yang, Jianguo Xiao - Semantic Web Techniques for Multiple Views on Heterogeneous Collections: A Case Study / Marjolein van Gendt, Antoine Isaac, Lourens van der Meij, Stefan Schlobach Posters - A Tool for Converting from MARC to FRBR / Trond Aalberg, Frank Berg Haugen, Ole Husby
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  8. Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008) 0.02
    0.015629333 = product of:
      0.06251733 = sum of:
        0.0111517375 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.0111517375 = score(doc=4323,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.0111517375 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.0111517375 = score(doc=4323,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.017910382 = weight(_text_:der in 4323) [ClassicSimilarity], result of:
          0.017910382 = score(doc=4323,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.3311152 = fieldWeight in 4323, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.0111517375 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.0111517375 = score(doc=4323,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
        0.0111517375 = weight(_text_:und in 4323) [ClassicSimilarity], result of:
          0.0111517375 = score(doc=4323,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.20778441 = fieldWeight in 4323, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4323)
      0.25 = coord(5/20)
    
    Abstract
    Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
    Issue
    Ergebnisse des Fachprojektes "Einbindung von Frage-Antwort-Diensten in die Web-Suche" am Department Information der Hochschule für Angewandte Wissenschaften Hamburg (WS 2007/2008).
  9. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.01
    0.014067184 = product of:
      0.056268737 = sum of:
        0.011754964 = weight(_text_:und in 1719) [ClassicSimilarity], result of:
          0.011754964 = score(doc=1719,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.219024 = fieldWeight in 1719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
        0.011754964 = weight(_text_:und in 1719) [ClassicSimilarity], result of:
          0.011754964 = score(doc=1719,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.219024 = fieldWeight in 1719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
        0.0092488825 = weight(_text_:der in 1719) [ClassicSimilarity], result of:
          0.0092488825 = score(doc=1719,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.17098716 = fieldWeight in 1719, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
        0.011754964 = weight(_text_:und in 1719) [ClassicSimilarity], result of:
          0.011754964 = score(doc=1719,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.219024 = fieldWeight in 1719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
        0.011754964 = weight(_text_:und in 1719) [ClassicSimilarity], result of:
          0.011754964 = score(doc=1719,freq=10.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.219024 = fieldWeight in 1719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
      0.25 = coord(5/20)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  10. Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008) 0.01
    0.013783932 = product of:
      0.055135727 = sum of:
        0.0105139585 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=506,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.0105139585 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=506,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.013079894 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.013079894 = score(doc=506,freq=12.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.24181235 = fieldWeight in 506, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.0105139585 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=506,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.0105139585 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=506,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 506, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
      0.25 = coord(5/20)
    
    Abstract
    Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
  11. nestor-Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung; [im Rahmen des Projektes: Nestor - Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland] / Georg-August-Universität Göttingen. (2009) 0.01
    0.0134990215 = product of:
      0.053996086 = sum of:
        0.0105139585 = weight(_text_:und in 3715) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=3715,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 3715, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3715)
        0.0105139585 = weight(_text_:und in 3715) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=3715,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 3715, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3715)
        0.011940255 = weight(_text_:der in 3715) [ClassicSimilarity], result of:
          0.011940255 = score(doc=3715,freq=10.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.22074346 = fieldWeight in 3715, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3715)
        0.0105139585 = weight(_text_:und in 3715) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=3715,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 3715, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3715)
        0.0105139585 = weight(_text_:und in 3715) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=3715,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 3715, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3715)
      0.25 = coord(5/20)
    
    Abstract
    Das nestor Handbuch "Eine kleine Enzyklopädie der digitalen Langzeitarchivierung" bietet einen aktuellen, breit gefächerten Überblick zum Themenbereich Langzeitarchivierung digitaler Objekte. Eine Vielzahl ausgewiesener Experten geben in Fachbeiträgen einen direkten Einstieg zu grundlegenden Fragestellungen. Darüber hinaus bieten sie in vielen Fällen einen vertiefenden Einblick in einzelne Aspekte der Langzeitarchivierung: von technischen und rechtlichen Bedingungen bis hin zu praktischen Vorüberlegungen für konkrete Archivierungsaktivitäten. Seit Frühjahr 2007 ist das Handbuch in einer Online-Version verfügbar und wird seitdem ständig weiterentwickelt. Die nun auch in gedruckter Form vorliegende Version 2.0 wurde neu strukturiert, um zusätzliche Themenfelder ergänzt und bislang schon vorhandene Beiträge wurden - wo fachlich geboten - überarbeitet. Ziel des Herausgeberkreises ist es, mit diesem Handbuch all jenen ein informatives Hilfsmittel an die Hand zu geben, die sich über das Thema Langzeitarchivierung aus einer deutschsprachigen Quelle informieren wollen -- gleich ob als Praktiker, Student, Wissenschaftler oder interessierter Leser.
    Content
    Einführung - State of the Art - Rahmenbedingungen für die LZA digitaler Objekte - Das Referenzmodell OAIS - Open Archival Information System - Das Referenzmodell OAIS - Open Archival Information System - Metadatenstandards im Bereich der digitalen LZA - Formate - Digitale Erhaltungsstrategien - Access - Hardware - Speichersysteme mit Langzeitarchivierungsanspruch - Technischer Workflow - Tools - Geschäftsmodelle - Organisation - Recht - Vorgehensweise für ausgewählte Objekttypen - Praxisbeispiele - Qualifizierung im Themenbereich "Langzeitarchivierung digitaler Objekte"
    Footnote
    Vgl. auch Version 2.3 der Online-Version: : http://nestor.sub.uni-goettingen.de/handbuch/nestor-handbuch_23.pdf bzw. http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:0008-2010071949.
  12. Research and advanced technology for digital libraries : 7th European conference, ECDL2003 Trondheim, Norway, August 17-22, 2003. Proceedings (2003) 0.01
    0.012154371 = product of:
      0.048617482 = sum of:
        0.0105139585 = weight(_text_:und in 2426) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2426,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2426, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2426)
        0.0105139585 = weight(_text_:und in 2426) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2426,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2426, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2426)
        0.0105139585 = weight(_text_:und in 2426) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2426,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2426, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2426)
        0.0105139585 = weight(_text_:und in 2426) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2426,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2426, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2426)
        0.006561648 = product of:
          0.013123296 = sum of:
            0.013123296 = weight(_text_:22 in 2426) [ClassicSimilarity], result of:
              0.013123296 = score(doc=2426,freq=2.0), product of:
                0.08479747 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.024215192 = queryNorm
                0.15476047 = fieldWeight in 2426, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2426)
          0.5 = coord(1/2)
      0.25 = coord(5/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  13. Hüsken, P.: Informationssuche im Semantic Web : Methoden des Information Retrieval für die Wissensrepräsentation (2006) 0.01
    0.0113538 = product of:
      0.0454152 = sum of:
        0.007885469 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.007885469 = score(doc=4332,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.007885469 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.007885469 = score(doc=4332,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.013873324 = weight(_text_:der in 4332) [ClassicSimilarity], result of:
          0.013873324 = score(doc=4332,freq=6.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.25648075 = fieldWeight in 4332, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.007885469 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.007885469 = score(doc=4332,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
        0.007885469 = weight(_text_:und in 4332) [ClassicSimilarity], result of:
          0.007885469 = score(doc=4332,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14692576 = fieldWeight in 4332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4332)
      0.25 = coord(5/20)
    
    Abstract
    Das Semantic Web bezeichnet ein erweitertes World Wide Web (WWW), das die Bedeutung von präsentierten Inhalten in neuen standardisierten Sprachen wie RDF Schema und OWL modelliert. Diese Arbeit befasst sich mit dem Aspekt des Information Retrieval, d.h. es wird untersucht, in wie weit Methoden der Informationssuche sich auf modelliertes Wissen übertragen lassen. Die kennzeichnenden Merkmale von IR-Systemen wie vage Anfragen sowie die Unterstützung unsicheren Wissens werden im Kontext des Semantic Web behandelt. Im Fokus steht die Suche nach Fakten innerhalb einer Wissensdomäne, die entweder explizit modelliert sind oder implizit durch die Anwendung von Inferenz abgeleitet werden können. Aufbauend auf der an der Universität Duisburg-Essen entwickelten Retrievalmaschine PIRE wird die Anwendung unsicherer Inferenz mit probabilistischer Prädikatenlogik (pDatalog) implementiert.
  14. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.01
    0.010993275 = product of:
      0.0439731 = sum of:
        0.0091053555 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.0091053555 = score(doc=4731,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0091053555 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.0091053555 = score(doc=4731,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0075516803 = weight(_text_:der in 4731) [ClassicSimilarity], result of:
          0.0075516803 = score(doc=4731,freq=4.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.13961042 = fieldWeight in 4731, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0091053555 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.0091053555 = score(doc=4731,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
        0.0091053555 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.0091053555 = score(doc=4731,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.25 = coord(5/20)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  15. Weinberger, D.: Everything is miscellaneous : the power of the new digital disorder (2007) 0.01
    0.009135277 = product of:
      0.036541108 = sum of:
        0.007967186 = weight(_text_:und in 2862) [ClassicSimilarity], result of:
          0.007967186 = score(doc=2862,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14844835 = fieldWeight in 2862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2862)
        0.007967186 = weight(_text_:und in 2862) [ClassicSimilarity], result of:
          0.007967186 = score(doc=2862,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14844835 = fieldWeight in 2862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2862)
        0.004672364 = weight(_text_:der in 2862) [ClassicSimilarity], result of:
          0.004672364 = score(doc=2862,freq=2.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.08637954 = fieldWeight in 2862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2862)
        0.007967186 = weight(_text_:und in 2862) [ClassicSimilarity], result of:
          0.007967186 = score(doc=2862,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14844835 = fieldWeight in 2862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2862)
        0.007967186 = weight(_text_:und in 2862) [ClassicSimilarity], result of:
          0.007967186 = score(doc=2862,freq=6.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.14844835 = fieldWeight in 2862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2862)
      0.25 = coord(5/20)
    
    Footnote
    Weitere Rez. in: BuB 59(2007) H.10, S.750-751 (J. Plieninger: Vermischtes und noch mehr ...): "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. ..." Weitere Rez. in JASIST 60(2009) no.6, S.1299-1300 (G Thornton). Vgl. für Rezensionen auch: http://www.everythingismiscellaneous.com/reviews/.
  16. Stuckenschmidt, H.; Harmelen, F. van: Information sharing on the semantic web (2005) 0.01
    0.008931125 = product of:
      0.0357245 = sum of:
        0.0065712244 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0065712244 = score(doc=2789,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.0065712244 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0065712244 = score(doc=2789,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.009439601 = weight(_text_:der in 2789) [ClassicSimilarity], result of:
          0.009439601 = score(doc=2789,freq=4.0), product of:
            0.054091092 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.024215192 = queryNorm
            0.17451303 = fieldWeight in 2789, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.0065712244 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0065712244 = score(doc=2789,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
        0.0065712244 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.0065712244 = score(doc=2789,freq=2.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.12243814 = fieldWeight in 2789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2789)
      0.25 = coord(5/20)
    
    Abstract
    Das wachsende Informationsvolumen im WWW führt paradoxerweise zu einer immer schwierigeren Nutzung, das Finden und Verknüpfen von Informationen in einem unstrukturierten Umfeld wird zur Sisyphosarbeit. Hier versprechen Semantic-Web-Ansätze Abhilfe. Die Autoren beschreiben Technologien, wie eine semantische Integration verteilter Daten durch verteilte Ontologien erreicht werden kann. Diese Techniken sind sowohl für Forscher als auch für Professionals interessant, die z.B. die Integration von Produktdaten aus verteilten Datenbanken im WWW oder von lose miteinander verbunden Anwendungen in verteilten Organisationen implementieren sollen.
    Classification
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
    RVK
    ST 515 Informatik / Monographien / Einzelne Anwendungen der Datenverarbeitung / Wirtschaftsinformatik / Wissensmanagement, Information engineering
  17. Research and advanced technology for digital libraries : 9th European conference, ECDL 2005, Vienna, Austria, September 18 - 23, 2005 ; proceedings (2005) 0.01
    0.008411167 = product of:
      0.042055834 = sum of:
        0.0105139585 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2423,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.0105139585 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2423,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.0105139585 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2423,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
        0.0105139585 = weight(_text_:und in 2423) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2423,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2423, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2423)
      0.2 = coord(4/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  18. Research and advanced technology for digital libraries : 8th European conference, ECDL 2004, Bath, UK, September 12-17, 2004 : proceedings (2004) 0.01
    0.008411167 = product of:
      0.042055834 = sum of:
        0.0105139585 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2427,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2427)
        0.0105139585 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2427,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2427)
        0.0105139585 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2427,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2427)
        0.0105139585 = weight(_text_:und in 2427) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2427,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2427, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2427)
      0.2 = coord(4/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  19. Research and advanced technology for digital libraries : 11th European conference, ECDL 2007 / Budapest, Hungary, September 16-21, 2007, proceedings (2007) 0.01
    0.008411167 = product of:
      0.042055834 = sum of:
        0.0105139585 = weight(_text_:und in 2430) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2430,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2430, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2430)
        0.0105139585 = weight(_text_:und in 2430) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2430,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2430, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2430)
        0.0105139585 = weight(_text_:und in 2430) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2430,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2430, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2430)
        0.0105139585 = weight(_text_:und in 2430) [ClassicSimilarity], result of:
          0.0105139585 = score(doc=2430,freq=8.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.19590102 = fieldWeight in 2430, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2430)
      0.2 = coord(4/20)
    
    Classification
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
    RVK
    SS 4800 Informatik / Enzyklopädien und Handbücher. Kongreßberichte Schriftenreihe. Tafeln und Formelsammlungen / Schriftenreihen (indiv. Sign.) / Lecture notes in computer science
  20. Survey of text mining : clustering, classification, and retrieval (2004) 0.01
    0.007434491 = product of:
      0.037172455 = sum of:
        0.009293114 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.009293114 = score(doc=804,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=804)
        0.009293114 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.009293114 = score(doc=804,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=804)
        0.009293114 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.009293114 = score(doc=804,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=804)
        0.009293114 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.009293114 = score(doc=804,freq=4.0), product of:
            0.05366975 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024215192 = queryNorm
            0.17315367 = fieldWeight in 804, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=804)
      0.2 = coord(4/20)
    
    Classification
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    RVK
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme

Languages

  • d 25
  • e 20

Types

  • m 42
  • s 18
  • el 1
  • i 1
  • r 1
  • More… Less…

Subjects

Classifications