Search (419 results, page 1 of 21)

  • × type_ss:"m"
  • × year_i:[2000 TO 2010}
  1. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2004) 0.08
    0.08450886 = product of:
      0.19718733 = sum of:
        0.003661892 = product of:
          0.01830946 = sum of:
            0.01830946 = weight(_text_:retrieval in 1949) [ClassicSimilarity], result of:
              0.01830946 = score(doc=1949,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16710453 = fieldWeight in 1949, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.2 = coord(1/5)
        0.17617446 = weight(_text_:abfrage in 1949) [ClassicSimilarity], result of:
          0.17617446 = score(doc=1949,freq=4.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.61642385 = fieldWeight in 1949, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1949)
        0.017350987 = product of:
          0.034701973 = sum of:
            0.034701973 = weight(_text_:22 in 1949) [ClassicSimilarity], result of:
              0.034701973 = score(doc=1949,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.27358043 = fieldWeight in 1949, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1949)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Abstract
    The author systematically introduces the notion of ontologies to the non-expert reader and demonstrates in detail how to apply this conceptual framework for improved intranet retrieval of corporate information and knowledge and for enhanced Internetbased electronic commerce. He also describes ontology languages (XML, RDF, and OWL) and ontology tools, and the application of ontologies. In addition to structural improvements, the second edition covers recent developments relating to the Semantic Web, and emerging web-based standard languages.
    Classification
    004.67/8 22
    DDC
    004.67/8 22
    RSWK
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Subject
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
  2. Fensel, D.: Ontologies : a silver bullet for knowledge management and electronic commerce (2001) 0.05
    0.05181519 = product of:
      0.18135315 = sum of:
        0.005178697 = product of:
          0.025893483 = sum of:
            0.025893483 = weight(_text_:retrieval in 163) [ClassicSimilarity], result of:
              0.025893483 = score(doc=163,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23632148 = fieldWeight in 163, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=163)
          0.2 = coord(1/5)
        0.17617446 = weight(_text_:abfrage in 163) [ClassicSimilarity], result of:
          0.17617446 = score(doc=163,freq=4.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.61642385 = fieldWeight in 163, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0390625 = fieldNorm(doc=163)
      0.2857143 = coord(2/7)
    
    Abstract
    Ontologies have been developed and investigated for quite a while now in artificial intelligente and natural language processing to facilitate knowledge sharing and reuse. More recently, the notion of ontologies has attracied attention from fields such as intelligent information integration, cooperative information systems, information retrieval, electronic commerce, and knowledge management. The author systematicaliy introduces the notion of ontologies to the non-expert reader and demonstrates in detail how to apply this conceptual framework for improved intranet retrieval of corporate information and knowledge and for enhanced Internet-based electronic commerce. In the second part of the book, the author presents a more technical view an emerging Web standards, like XML, RDF, XSL-T, or XQL, allowing for structural and semantic modeling and description of data and information.
    RSWK
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
    Subject
    World Wide Web / Datenbanksystem / Abfrage / Inferenz <Künstliche Intelligenz>
  3. ¬Die Wissenschaft und ihre Sprachen (2007) 0.05
    0.0492959 = product of:
      0.17253564 = sum of:
        0.16272044 = weight(_text_:mehrsprachigkeit in 301) [ClassicSimilarity], result of:
          0.16272044 = score(doc=301,freq=4.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.5298757 = fieldWeight in 301, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=301)
        0.0098152 = product of:
          0.0196304 = sum of:
            0.0196304 = weight(_text_:22 in 301) [ClassicSimilarity], result of:
              0.0196304 = score(doc=301,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.15476047 = fieldWeight in 301, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=301)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Beiträge dieses Bandes zur Wissenschaftskommunikation behandeln - mit unterschiedlichen Methoden und Schwerpunktsetzungen - sowohl die einzelsprachliche Verfasstheit wissenschaftlicher Kommunikation als auch Perspektiven der Mehrsprachigkeit für das Betreiben von Wissenschaft. Die Untersuchungen basieren auf empirischen Beobachtungen zu sprachspezifischen Merkmalen und Konventionen wissenschaftlichen Schreibens, erörtern Probleme der Begrifflichkeit und der Übersetzung und behandeln die Frage der Sprachenwahl in bestimmten Fachbereichen. Ein Schwerpunkt des Bandes liegt beim Erwerb wissenschaftssprachlicher Kompetenz in der akademischen Ausbildung - auch aus der Sicht des Nicht-Muttersprachlers. Diesem Thema, das im Zuge der Internationalisierung des Hochschulbetriebs für die (Fremd-)Sprachdidaktik zunehmend relevant wird, bringt die Wissenschaftsprachforschung in jüngerer Zeit erhöhte Aufmerksamkeit entgegen. Die meisten Beiträge wurden beim 15. Europäischen Fachsprachensymposium (New Trends in Specialized Discourse, Universität Bergamo, 29. August - 2. September 2005) präsentiert; darüber hinaus konnten weitere Beiträge im Bereich der Wissenschaftskommunikationsanalyse für den Band gewonnen werden.
    Content
    Aus dem Inhalt: Konrad Ehlich / Dorothee Heller: Einleitung - Konrad Ehlich: Mehrsprachigkeit in der Wissenschaftskommunikation - Illusion oder Notwendigkeit? - Christian Fandrych: Bildhaftigkeit und Formelhaftigkeit in der allgemeinen Wissenschaftssprache als Herausforderung für Deutsch als Fremdsprache - Dorothee Heller: L'autore traccia un quadro... - Beobachtungen zur Versprachlichung wissenschaftlichen Handelns im Deutschen und Italienischen - Kristin Stezano Cotelo: Die studentische Seminararbeit - studentische Wissensverarbeitung zwischen Alltagswissen und wissenschaftlichem Wissen - Sabine Ylönen: Training wissenschaftlicher Kommunikation mit E-Materialien. Beispiel mündliche Hochschulprüfung - Susanne Guckelsberger: Zur kommunikativen Struktur von mündlichen Referaten in universitären Lehrveranstaltungen - Giancarmine Bongo: Asymmetrien in wissenschaftlicher Kommunikation - Klaus-Dieter Baumann: Die interdisziplinäre Analyse rhetorisch-stilistischer Mittel der Fachkommunikation als ein Zugang zum Fachdenken - Marcello Soffritti: Der übersetzungstheoretische und -kritische Diskurs als fachsprachliche Kommunikation. Ansätze zu Beschreibung und Wertung - Karl Gerhard Hempel: Nationalstile in archäologischen Fachtexten. Bemerkungen zu `Stilbeschreibungen' im Deutschen und im Italienischen - Ingrid Wiese: Zur Situation des Deutschen als Wissenschaftssprache in der Medizin - Winfried Thielmann: «...it seems that light is propagated in time... » - zur Befreiung des wissenschaftlichen Erkenntnisprozesses durch die Vernakulärsprache Englisch.
    Date
    7. 5.2007 12:16:22
  4. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.04
    0.044063594 = product of:
      0.102815054 = sum of:
        0.009158121 = product of:
          0.022895303 = sum of:
            0.010985675 = weight(_text_:retrieval in 1833) [ClassicSimilarity], result of:
              0.010985675 = score(doc=1833,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.10026272 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
            0.011909628 = weight(_text_:system in 1833) [ClassicSimilarity], result of:
              0.011909628 = score(doc=1833,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.104393914 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.4 = coord(2/5)
        0.08629554 = weight(_text_:mehrsprachigkeit in 1833) [ClassicSimilarity], result of:
          0.08629554 = score(doc=1833,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.28100902 = fieldWeight in 1833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.0073614 = product of:
          0.0147228 = sum of:
            0.0147228 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.0147228 = score(doc=1833,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22
  5. Medien-Informationsmanagement : Praxis - Projekte - Präsentationen (2000) 0.04
    0.0363633 = product of:
      0.12727155 = sum of:
        0.012210828 = product of:
          0.03052707 = sum of:
            0.014647567 = weight(_text_:retrieval in 1545) [ClassicSimilarity], result of:
              0.014647567 = score(doc=1545,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 1545, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1545)
            0.015879504 = weight(_text_:system in 1545) [ClassicSimilarity], result of:
              0.015879504 = score(doc=1545,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 1545, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1545)
          0.4 = coord(2/5)
        0.115060724 = weight(_text_:mehrsprachigkeit in 1545) [ClassicSimilarity], result of:
          0.115060724 = score(doc=1545,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.3746787 = fieldWeight in 1545, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=1545)
      0.2857143 = coord(2/7)
    
    Content
    Enthält u.a. die Beiträge: Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten; Peters, G., V. Gaese: Das DocCat-System in der Textdokumentation von G+J; Gödert, W.: Aufbereitung und Rezeption von Information; Gerick, T.: Finden statt suchen - Knowledge Retrieval in Wissensbanken: Mit organisiertem Wissen zu mehr Erfolg; Wandeler, J.: Comprenez-vous only Bahnhof?: Mehrsprachigkeit in der Mediendokumentation; Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv; Schlenkrich, C.: Aspekte neuer Regelwerksarbeit: Multimediales Datenmodell für ARD und ZDF
  6. Knowledge organization and the global information society : Proceedings of the 8th International ISKO Conference 13-16 July 2004, London, UK (2004) 0.03
    0.03315992 = product of:
      0.07737315 = sum of:
        0.012902393 = product of:
          0.03225598 = sum of:
            0.016376477 = weight(_text_:retrieval in 3356) [ClassicSimilarity], result of:
              0.016376477 = score(doc=3356,freq=10.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.14946283 = fieldWeight in 3356, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
            0.015879504 = weight(_text_:system in 3356) [ClassicSimilarity], result of:
              0.015879504 = score(doc=3356,freq=8.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 3356, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
          0.4 = coord(2/5)
        0.057530362 = weight(_text_:mehrsprachigkeit in 3356) [ClassicSimilarity], result of:
          0.057530362 = score(doc=3356,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.18733935 = fieldWeight in 3356, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.015625 = fieldNorm(doc=3356)
        0.0069403946 = product of:
          0.013880789 = sum of:
            0.013880789 = weight(_text_:22 in 3356) [ClassicSimilarity], result of:
              0.013880789 = score(doc=3356,freq=4.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.109432176 = fieldWeight in 3356, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=3356)
          0.5 = coord(1/2)
      0.42857143 = coord(3/7)
    
    Content
    Inhalt: Session 1 A: Theoretical Foundations of Knowledge Organization 1 Hanne Albrechtsen, Hans H K Andersen, Bryan Cleal and Annelise Mark Pejtersen: Categorical complexity in knowledge integration: empirical evaluation of a cross-cultural film research collaboratory; Clare Beghtol: Naive classification systems and the global information society; Terence R Smith and Marcia L Zeng: Concept maps supported by knowledge organization structures; B: Linguistic and Cultural Approaches to Knowledge Organization 1 Rebecca Green and Lydia Fraser: Patterns in verbal polysemy; Maria J López-Huertas, MarioBarite and Isabel de Torres: Terminological representation of specialized areas in conceptual structures: the case of gender studies; Fidelia Ibekwe-SanJuan and Eric SanJuan: Mining for knowledge chunks in a terminology network Session 2 A: Applications of Artificial Intelligence and Knowledge Representation 1 Jin-Cheon Na, Haiyang Sui, Christopher Khoo, Syin Chan and Yunyun Zhou: Effectiveness of simple linguistic processing in automatic sentiment classification of product reviews; Daniel J O'Keefe: Cultural literacy in a global information society-specific language: an exploratory ontological analysis utilizing comparative taxonomy; Lynne C Howarth: Modelling a natural language gateway to metadata-enabled resources; B: Theoretical Foundations of Knowledge Organization 2: Facets & Their Significance Ceri Binding and Douglas Tudhope: Integrating faceted structure into the search process; Vanda Broughton and Heather Lane: The Bliss Bibliographic Classification in action: moving from a special to a universal faceted classification via a digital platform; Kathryn La Barre: Adventures in faceted classification: a brave new world or a world of confusion? Session 3 A: Theoretical Foundations of Knowledge Organization 3 Elin K Jacob: The structure of context: implications of structure for the creation of context in information systems; Uta Priss: A semiotic-conceptual framework for knowledge representation Giovanni M Sacco; Accessing multimedia infobases through dynamic taxonomies; Joseph T Tennis: URIS and intertextuality: incumbent philosophical commitments in the development of the semantic web; B: Social & Sociological Concepts in Knowledge Organization Grant Campbell: A queer eye for the faceted guy: how a universal classification principle can be applied to a distinct subculture; Jonathan Furner and Anthony W Dunbar: The treatment of topics relating to people of mixed race in bibliographic classification schemes: a critical ace-theoretic approach; H Peter Ohly: The organization of Internet links in a social science clearing house; Chern Li Liew: Cross-cultural design and usability of a digital library supporting access to Maori cultural heritage resources: an examination of knowledge organization issues; Session 4 A: Knowledge Organization of Universal and Special Systems 1: Dewey Decimal Classification Sudatta Chowdhury and G G Chowdhury: Using DDC to create a visual knowledge map as an aid to online information retrieval; Joan S Mitchell: DDC 22: Dewey in the world, the world in Dewey; Diane Vizine-Goetz and Julianne Beall: Using literary warrant to define a version of the DDCfor automated classification services; B: Applications in Knowledge Representation 2 Gerhard J A Riesthuis and Maja Zumer: FRBR and FRANAR: subject access; Victoria Frâncu: An interpretation of the FRBR model; Moshe Y Sachs and Richard P Smiraglia: From encyclopedism to domain-based ontology for knowledge management: the evolution of the Sachs Classification (SC); Session 5 A: Knowledge Organization of Universal and Special Systems 2 Ágnes Hajdu Barát: Knowledge organization of the Universal Decimal Classification: new solutions, user friendly methods from Hungary; Ia C McIlwaine: A question of place; Aida Slavic and Maria Inês Cordeiro: Core requirements for automation of analytico-synthetic classifications;
    B: Applications in Knowledge Representation 3 Barbara H Kwasnik and You-Lee Chun: Translation of classifications: issues and solutions as exemplified in the Korean Decimal Classification; Hur-Li Lee and Jennifer Clyde: Users' perspectives of the "Collection" and the online catalogue; Jens-Erik Mai: The role of documents, domains and decisions in indexing Session 6 A: Knowledge Organization of Universal and Special Systems 3 Stella G Dextre Clarke, Alan Gilchrist and Leonard Will: Revision and extension of thesaurus standards; Michèle Hudon: Conceptual compatibility in controlled language tools used to index and access the content of moving image collections; Antonio Garcia Jimdnez, Félix del Valle Gastaminza: From thesauri to ontologies: a case study in a digital visual context; Ali Asghar Shiri and Crawford Revie: End-user interaction with thesauri: an evaluation of cognitive overlap in search term selection; B: Special Applications Carol A Bean: Representation of medical knowledge for automated semantic interpretation of clinical reports; Chew-Hung Lee, Christopher Khoo and Jin-Cheon Na: Automatic identification of treatment relations for medical ontology learning: an exploratory study; A Neelameghan and M C Vasudevan: Integrating image files, case records of patients and Web resources: case study of a knowledge Base an tumours of the central nervous system; Nancy J Williamson: Complementary and alternative medicine: its place in the reorganized medical sciences in the Universal Decimal Classification; Session 7 A: Applications in Knowledge Representation 4 Claudio Gnoli: Naturalism vs pragmatism in knowledge organization; Wouter Schallier: On the razor's edge: between local and overall needs in knowledge organization; Danielle H Miller: User perception and the online catalogue: public library OPAC users "think aloud"; B: Knowledge Organization in Corporate Information Systems Anita S Coleman: Knowledge structures and the vocabulary of engineering novices; Evelyne Mounier and Céline Paganelli: The representation of knowledge contained in technical documents: the example of FAQs (frequently asked questions); Martin S van der Walt: A classification scheme for the organization of electronic documents in small, medium and micro enterprises (SMMEs); Session 8 A: Knowledge Organization of Non-print Information: Sound, Image, Multimedia Laura M Bartoto, Cathy S Lowe and Sharon C Glotzer: Information management of microstructures: non-print, multidisciplinary information in a materials science digital library; Pauline Rafferty and Rob Hidderley: A survey of Image trieval tools; Richard P Smiraglia: Knowledge sharing and content genealogy: extensiog the "works" model as a metaphor for non-documentary artefacts with case studies of Etruscan artefacts; B: Linguistic and Cultural Approaches to Knowledge Organization 2 Graciela Rosemblat, Tony Tse and Darren Gemoets: Adapting a monolingual consumer health system for Spanish cross-language information retrieval; Matjaz Zalokar: Preparation of a general controlled vocabulary in Slovene and English for the COBISS.SI library information system, Slovenia; Marianne Dabbadie, Widad Mustafa El Hadi and Francois Fraysse: Coaching applications: a new concept for usage testing an information systems. Testing usage an a corporate information system with K-Now; Session 9 Theories of Knowledge and Knowledge Organization Keiichi Kawamura: Ranganathan and after: Coates' practice and theory; Shiyan Ou, Christopher Khoo, Dion H Goh and Hui-Ying Heng: Automatic discourse parsing of sociology dissertation abstracts as sentence categorization; Iolo Jones, Daniel Cunliffe, Douglas Tudhope: Natural language processing and knowledge organization systems as an aid to retrieval
    Footnote
    Rez. in: Mitt. VÖB 58(2005) H.1, S.78-81 (O. Oberhauser): "Die 1989 gegründete Internationale Gesellschaft für Wissensorganisation (ISKO) ist eine der wenigen Vereinigungen, deren Interessensschwerpunkt ganz auf wissenschaftliche und praktische Fragen der inhaltlichen Erschliessung und des sachlichen Informationszugangs ausgerichtet ist. Die deutschsprachige Sektion der ISKO hat ihren Sitz in Bonn; die Gesellschaft ist jedoch hierzulande nicht ausreichend bekannt und hat bislang nurwenige Mitglieder aus Österreich. Neben der nunmehr bereits seit über dreissig Jahren erscheinenden Fachzeitschrift Knowledge Organization (bis 1993 International Classification) publiziert die ISKO mehrere Buchserien, die früher im Frankfurter Indeks-Verlag erschienen und heute - wie auch die Zeitschrift - in Würzburg bei Ergon verlegt werden. Unter diesen nehmen die Tagungsbände der internationalen ISKO-Konferenzen, die seit 1990 alle zwei Jahre (an wechselnden Orten) abgehalten werden, eine bedeutende Stellung ein. Nun liegen die Proceedings der im Juli des vergangenen Jahres in London veranstalteten achten Konferenz vor, editiert in einheitlichem Layout, an dem mit Ausnahme der relativ kleinen Schrift, einem mitunter miss glückten Randausgleich bei den Titelüberschriften, unschönen (da fehlenden) Abständen bei den Überschriften von Subkapiteln sowie den üblichen vermeidbaren Tippfehlern (z.B. "trieval" anstelle von "retrieval" im Inhaltsverzeichnis, p. 9) wenig auszusetzen ist. Der trotz des kleinen Fonts stattlich wirkende Band versammelt immerhin 55 Vorträge, die, offenbar der Organisation der Tagung entsprechend, in 17 Abschnitte gegliedert sind. Die letzteren sind allerdings nur aus dem Inhaltsverzeichnis ersichtlich und entbehren jeden Kommentars, der sie auch inhaltlich hätte näher charakterisieren können. Die Herkunft der Autoren der Vorträge - darunter einige grosse und bekannte Namen - spiegelt die Internationalität der Vereinigung wider. Der deutsche Sprachraum ist allerdings nur durch einen einzigen Beitrag vertreten (H. Peter Ohly vom IZ Sozialwissenschaften, Bonn, über die Erschliessung einer Datenbank für Web-Ressourcen); bibliothekarische Autoren aus dem Raum "D-A-CH" sucht man vergebens. Die meisten Vorträge sind relativ kurz und bündig gehalten; die durchschnittliche Länge beträgt etwa vier bis sechs Seiten.
    Das Rahmenthema der Tagung kam aufgrund des vor und nach der ISKO-Konferenz abgehaltenen "UN World Summit an an Information Society" zustande. Im Titel des Buches ist die "globale Wissensgesellschaft" freilich eher irreführend, da keiner der darin abgedruckten Beiträge zentral davon handelt. Der eine der beiden Vorträge, die den Begriff selbst im Titel anführen, beschäftigt sich mit der Konstruktion einer Taxonomie für "cultural literacy" (O'Keefe), der andere mit sogenannten "naiven Klassifikationssystemen" (Beghtol), d.h. solchen, die im Gegensatz zu "professionellen" Systemen von Personen ohne spezifisches Interesse an klassifikatorischen Fragen entwickelt wurden. Beiträge mit "multi-kulti"-Charakter behandeln etwa Fragen wie - kulturübergreifende Arbeit, etwa beim EU-Filmarchiv-Projekt Collate (Albrechtsen et al.) oder einem Projekt zur Maori-Kultur (Liew); - Mehrsprachigkeit bzw. Übersetzung, z.B. der koreanischen Dezimalklassifikation (Kwasnik & Chun), eines auf der Sears ListofSubject Headings basierenden slowenischen Schlagwortvokabulars (Zalokar), einer spanisch-englischen Schlagwortliste für Gesundheitsfragen (Rosemblat et al.); - universelle Klassifikationssysteme wie die Dewey-Dezimalklassifikation (Joan Mitchell über die DDC 22, sowie zwei weitere Beiträge) und die Internationale Dezimalklassifikation (la McIlwaine über Geographika, Nancy Williamson über Alternativ- und Komplementärmedizin in der UDC). Unter den 55 Beiträgen finden sich folgende - aus der Sicht des Rezensenten - besonders interessante thematische "Cluster": - OPAC-orientierte Beiträge, etwa über die Anforderungen bei derAutomatisierung analytisch-synthetischer Klassifikationssysteme (Slavic & Cordeiro) sowie Beiträge zu Benutzerforschung und -verhalten (Lee & Clyde; Miller); - Erschliessung und Retrieval von visuellen bzw. multimedialen Ressourcen, insbesondere mit Ausrichtung auf Thesauri (Hudin; Garcia Jimenez & De Valle Gastaminza; Rafferty & Hidderley); - Thesaurus-Standards (Dextre Clark et al.), Thesauri und Endbenutzer (Shiri & Revie); - Automatisches Klassifizieren (Vizine-Goetz & Beall mit Bezug auf die DDC; Na et al. über methodische Ansätze bei der Klassifizierung von Produktbesprechungen nach positiven bzw. negativen Gefühlsäusserungen); - Beiträge über (hierzulande) weniger bekannte Systeme wie Facettenklassifikation einschliesslich der Bliss-Klassifikation sowie der Umsetzung der Ideen von Ranganathan durch E.J. Coates (vier Vorträge), die Sachs-Klassifikation (Sachs & Smiraglia) sowie M. S. van der Walts Schema zur Klassifizierung elektronischer Dokumente in Klein- und Mittelbetrieben. Auch die übrigen Beiträge sind mehrheitlich interessant geschrieben und zeugen vom fachlichen Qualitätsstandard der ISKO-Konferenzen. Der Band kann daher bibliothekarischen bzw. informationswissenschaftlichen Ausbildungseinrichtungen sowie Bibliotheken mit Sammelinteresse für Literatur zu Klassifikationsfragen ausdrücklich empfohlen werden. Ausserdem darf der nächsten (= neunten) internationalen ISKO-Konferenz, die 2006 in Wien abgehalten werden soll, mit Interesse entgegengesehen werden.
  7. Meier, A.: Relationale Datenbanken : eine Einführung für die Praxis (2001) 0.03
    0.028474092 = product of:
      0.19931863 = sum of:
        0.19931863 = weight(_text_:abfrage in 93) [ClassicSimilarity], result of:
          0.19931863 = score(doc=93,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.6974039 = fieldWeight in 93, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.0625 = fieldNorm(doc=93)
      0.14285715 = coord(1/7)
    
    Abstract
    Gibt eine umfassende Einführung in das Gebiet der relationalen Datenbanken. Es ist das erste deutschsprachige Werk, das sich auf die relationale Datenbanktechnologie beschränkt und zugleich die Datenbankentwurfsmethodik, Sprachaspekte, Systemarchitekturen und neuere Technologien umfassend und für den Praktiker verständlich behandelt. Bei der Datenmodellierung werden Abbildungsregeln zum Überführen eines Entitäten-Beziehungsmodells in ein relationales Datenbankschema behandelt, Normalformen diskutiert und ein unternehmensweites Datenmodell veranschaulicht. Die Diskussion relationaler Abfrage- und Manipulationssprachen geht grundlegend auf die Relationenalgebra ein, erläutert den Begriff relational vollständiger Sprachen und gibt einen Überblick über die bedeutenden Sprachen SQL, QUEL und QBE
  8. Terminologie : Grundlage für Fachkommunikation, Fachwissen in der mehrsprachigen Informationsgesellschaft (2002) 0.02
    0.02054656 = product of:
      0.1438259 = sum of:
        0.1438259 = weight(_text_:mehrsprachigkeit in 1679) [ClassicSimilarity], result of:
          0.1438259 = score(doc=1679,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.46834838 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1679)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in ZfBB 50(2003) H.3, S.174 (G. Pflug): "Die Terminologiekontrolle erfreut sich seit den 1990er-Jahren einer internationalen Aufmerksamkeit. Neben Aktivitäten von einschlägigen Institutionen in den einzelnen Ländern nehmen sich auch mehrere internationale Organisationen dieser Aufgabe an. So hat etwa die Europäische Gemeinschaft mit dem »European Automatic Dictionary« (EURODICAUTOM) ein Werk mit mehr als 100.000 normierten Termini vorgelegt, das über Internet (http://europa.eu.int/ eurodicautom/Controller) zugänglich ist. Die UNESCO fördert seit ihrer Gründung nach dem Zweiten Weltkrieg die internationale Normung vor allem in den Bereichen Bibliotheks-, Dokumentations- und Informationswesen. Einen zusätzlichen Impuls erhielt diese Arbeit der UNESCO 1994 durch die Gründung des »Rates für deutschsprachige Terminologie« (RaDT) durch die UNESCO-Kommissionen von Deutschland, Österreich und der Schweiz. In ihm wirken die Terminologieexperten der entsprechenden Einrichtungen - Behörden, Wirtschaftsorganisationen, Ausbildungsstätten und Verbände zusammen. Mit der hier vorliegenden Broschüre legt der Rat zum ersten Mal die Ergebnisse seiner Aktivitäten dar. Dabei be schränkt er sich nicht nur auf die Terminologieprobleme in der deutschen Sprache. Die Vorzüge - und heutigen Notwendigkeiten - einer Mehrsprachigkeit, die über das Englische als Lingua franca hinausreichen, werden ausdrücklich als Ziele des RaDT genannt (S. 5). Daher wird die Übersetzungstechnik - einschließlich ihrer Automatisierung - ausdrücklich in den Aufgabenkatalog des RaDT einbezogen. Daneben treten allgemeine Normierungsfragen, zum Beispiel die Erkenntnis und Behandlung von Regionalismen in den Fachsprachen (S. 6), weiterhin die - auch für die Bibliotheken wichtigen -Terminologiewerkzeuge wie die automatisierten Abfragemöglichkeiten (S. 8) und die Forschungsfelder (Terminologiewissenschaft, Translation) sowie die Ausbildungsziele (S. 11). Den Beschluss der Broschüre bilden Übersichten über die einschlägigen Ausbildungsinstitute in den drei Ländern sowie die entsprechenden Organisationen im europäischen Raum (S.14-18). Dass das deutsche Bibliothekswesen intensiv in dieser Terminologiearbeit engagiert ist, belegt schon die Tatsache, dass ein Dozent der Fachhochschule in Köln Vorsitzender des RaDT ist."
  9. Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001) 0.02
    0.01788698 = product of:
      0.06260443 = sum of:
        0.005074066 = product of:
          0.02537033 = sum of:
            0.02537033 = weight(_text_:retrieval in 5965) [ClassicSimilarity], result of:
              0.02537033 = score(doc=5965,freq=24.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23154683 = fieldWeight in 5965, product of:
                  4.8989797 = tf(freq=24.0), with freq of:
                    24.0 = termFreq=24.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5965)
          0.2 = coord(1/5)
        0.057530362 = weight(_text_:mehrsprachigkeit in 5965) [ClassicSimilarity], result of:
          0.057530362 = score(doc=5965,freq=2.0), product of:
            0.3070917 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03622214 = queryNorm
            0.18733935 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.015625 = fieldNorm(doc=5965)
      0.2857143 = coord(2/7)
    
    Abstract
    Ein wesentliches Bedürfnis im Rahmen der Mensch-Maschine-Interaktion ist die Suche nach Information. Um Information Retrieval (IR) Systeme kognitiv adäquat zu gestalten und sie an den Menschen anzupassen bieten sich Modelle des Soft Computing an. Ein umfassender state-of-the-art Bericht zu neuronalen Netzen im IR zeigt dass die meisten bestehenden Modelle das Potential neuronaler Netze nicht ausschöpfen. Das vorgestellte COSIMIR-Modell (Cognitive Similarity learning in Information Retrieval) basiert auf neuronalen Netzen und lernt, die Ähnlichkeit zwischen Anfrage und Dokument zu berechnen. Es trägt somit die kognitive Modellierung in den Kern eines IR Systems. Das Transformations-Netzwerk ist ein weiteres neuronales Netzwerk, das die Behandlung von Heterogenität anhand von Expertenurteilen lernt. Das COSIMIR-Modell und das Transformations-Netzwerk werden ausführlich diskutiert und anhand realer Datenmengen evaluiert
    Content
    Kapitel: 1 Einleitung - 2 Grundlagen des Information Retrieval - 3 Grundlagen neuronaler Netze - 4 Neuronale Netze im Information Retrieval - 5 Heterogenität und ihre Behandlung im Information Retrieval - 6 Das COSIMIR-Modell - 7 Experimente mit dem COSIMIR-Modell und dem Transformations-Netzwerk - 8 Fazit
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
    Im abschließenden Kapitel des Buchs berichtet der Autor über eine Reihe von Experimenten, die im Kontext unterschiedlicher Anwendungen durchgeführt wurden. Die Evaluationen wurden sehr sorgfältig durchgeführt und werden kompetent kommentiert, so dass der Leser sich ein Bild von der Komplexität der Untersuchungen machen kann. Inhaltlich sind die Ergebnisse unterschiedlich, die Verwendung des NN-Ansatzes ist sehr abhängig von der Menge und Qualität des Trainingsmaterials (so sind die Ergebnisse auf der Cranfield-Kollektion wegen der geringen Anzahl von zur Verfügung stehenden Relevanzurteilen schlechter als die der traditionellen Verfahren). Das Experiment mit Werkstoffinformationen im Projekt WING ist eine eher traditionelle NN-Applikation: Aus Merkmalsvektoren soll auf die "Anwendungsähnlichkeit" von Werkstoffen geschlossen werden, was offenbar gut gelingt. Hier sind die konkurrierenden Verfahren aber weniger im IR zu vermuten, sondern eher im Gebiet des Data Mining. Die Versuche mit Textdaten sind Anregung, hier weitere, systematischere Untersuchungen vorzunehmen. So sollte z.B. nicht nur ein Vergleich mit klassischen One-shot IR-Verfahren durchgeführt werden, viel interessanter und aussagekräftiger ist die Gegenüberstellung von NN-Systemen und lernfähigen IR-Systemen, die z.B. über Relevance Feedback Wissen akkumulieren (vergleichbar den NN in der Trainingsphase). Am Ende könnte dann nicht nur ein einheitliches Modell stehen, sondern auch Erkenntnisse darüber, welches Lernverfahren wann vorzuziehen ist. Fazit: Das Buch ist ein hervorragendes Beispiel der "Schriften zur Informationswissenschaft", mit denen der HI (Hochschulverband für Informationswissenschaft) die Ergebnisse der informationswissenschaftlichen Forschung seit etlichen Jahren einem größerem Publikum vorstellt. Es bietet einen umfassenden Überblick zum dynamisch sich entwickelnden Gebiet der Neuronalen Netze im IR, die sich anschicken, ein "tolerantes Information Retrieval" zu ermöglichen."
    RSWK
    Information Retrieval / Neuronales Netz
    Subject
    Information Retrieval / Neuronales Netz
  10. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.01
    0.014237046 = product of:
      0.099659316 = sum of:
        0.099659316 = weight(_text_:abfrage in 1719) [ClassicSimilarity], result of:
          0.099659316 = score(doc=1719,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.34870195 = fieldWeight in 1719, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03125 = fieldNorm(doc=1719)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  11. Knowledge organization and classification in international information retrieval (2004) 0.01
    0.014189045 = product of:
      0.049661655 = sum of:
        0.014437442 = product of:
          0.036093604 = sum of:
            0.022199038 = weight(_text_:retrieval in 1441) [ClassicSimilarity], result of:
              0.022199038 = score(doc=1441,freq=6.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.20260347 = fieldWeight in 1441, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
            0.013894566 = weight(_text_:system in 1441) [ClassicSimilarity], result of:
              0.013894566 = score(doc=1441,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 1441, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
          0.4 = coord(2/5)
        0.035224214 = product of:
          0.07044843 = sum of:
            0.07044843 = weight(_text_:zugriff in 1441) [ClassicSimilarity], result of:
              0.07044843 = score(doc=1441,freq=4.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3261314 = fieldWeight in 1441, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=1441)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Footnote
    Rez. in Mitteilungen VÖB 57(2004) H.3/4, S.83-84 (O. Oberhauser): "Der Klappentext zu diesem Buch, das gleichzeitig als Cataloging & Classification Quarterly, Jg. 37, Nr. 1/2, veröffentlicht wurde, weiss mit eindrucksvollen Lobpreisungen bekannter anglo-amerikanischer Professoren aufzuwarten. Das Werk ist ein Sammelband mit 14 Artikeln von Autoren aus sechs Ländern, unter denen Kanada mit sechs Beiträgen klar dominiert (was nicht weiter überraschend ist, da die Herausgeberinnen von dort stammen). Das deklarierte Ziel des Bandes ist die Behandlung von Themen, die im Zusammenhang mit Information und Wissen in einem internationalisierten Kontext von Relevanz sind. Dies wird in vier thematisch gegliederten Abschnitten versucht. Das erste dieser Kapitel, General Bibliographic Systems, enthält vier Aufsätze, deren erster die Rolle allgemeiner und spezialisierter Klassifikationssysteme unter den Auspizien von Interoperabilität und weltweitem Zugriff reflektiert. Die anderen behandeln eine Adaptierung der DDC für die Verwendung bei der Erschliessung feministischer Literatur, die Probleme bei der Übersetzung von Klassifikationen von einer Sprache/Kultur in eine andere sowie den multilingualen Zugriff auf Dokumente in bibliographischen Datenbanken durch mehrsprachige, mit UDK-Zahlen verknüpfte Deskriptoren. Die zweite Sektion (ebenfalls vier Artikel) ist mit Information Organization in Knowledge Resources betitelt. Ihre konkreten Themen sind a) die Schwächen bibliothekarischer sachlicher Suchsysteme im internationalen Web-Kontext, b) die Recherche erziehungswissenschaftlicher Web-Ressourcen mittels "subject trees" bzw. in virtuellen Bibliotheken, c) Techniken für Text- und Data-Mining im Rahmen von Wissensorganisation und -ermittlung sowie d) Ansätze für die Wissensermittlung in nicht-bibliographischen Datenbanken.
    Im dritten Kapitel, Linguistics, Terminology, and Natural Language Processing, werden Anwendungen der Sprachtechnologie auf die Informationsrecherche und -verteilung über Sprachgrenzen hinweg, die Auswirkungen unterschiedlicher Sprachvarianten auf lexikalische Wissensmuster sowie ein "gateway" für fachübergreifende Wissensbanken, das auf einem Vokabular von Allgemeinbegriffen aus neun verschiedenen MetadatenSchemata beruht, behandelt. Der letzte Abschnitt trägt den etwas rätselhaften Titel Knowledge in the World and the World of Knowledge und enthält so heterogene Beiträge wie den Entwurf eines axiomatischen Systems für die semantische Integration von Ontologien, einen Vergleich der einflussreichen Knowledge-Management-Ansätze von Nonaka & Takeuchi (Japan) und Davenport & Prusak (USA) sowie einen Vergleich der Repräsentation amerikanischer und internationaler agrarökonomischer Themen in LCC (Library of Congress Classification) und NAICS (North American Industrial Classification System). Die eingangs erwähnten Lobeshymnen sind meiner Meinung nach ein wenig übertrieben. Das Buch ist nicht mehr und nicht weniger als ein recht typischer Sammelband mit wissenschaftlichen Artikeln von unterschiedlicher Qualität. Einige davon sind in verständlicher Sprache verfasst (wie etwa der kurze Beitrag über allgemeine vs. spezifische Klassifikationssysteme von J.-E. Mai), andere sind für normale Bibliothekare bzw. Informationswissenschaftler praktisch unlesbar (wie jener über Ontologien von R. E. Kent, der mehr als nur oberflächliche Kenntnisse der formalen Logik voraussetzt). Einige Artikel fand ich recht interessant, andere eher etwas langatmig. Die meisten Beiträge werden vermutlich eher bei wissenschaftlichen Vertretern unserer Disziplin auf Interesse stossen als bei Praktikern. Dass das Buch überein brauchbares Register verfügt, sei positiv vermerkt, zumal derlei heute nicht mehrselbstverständlich ist. Zur Anschaffung empfehlen würde ich diesen Band nicht nur Bibliotheken mit Spezialisierung auf Bibliotheks- und Informationswissenschaft, sondern auch allen grossen wissenschaftlichen Bibliotheken."
    LCSH
    Information retrieval
    Subject
    Information retrieval
  12. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.01
    0.010937334 = product of:
      0.07656133 = sum of:
        0.07656133 = sum of:
          0.05693093 = weight(_text_:zugriff in 92) [ClassicSimilarity], result of:
            0.05693093 = score(doc=92,freq=2.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.26355398 = fieldWeight in 92, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
          0.0196304 = weight(_text_:22 in 92) [ClassicSimilarity], result of:
            0.0196304 = score(doc=92,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.15476047 = fieldWeight in 92, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=92)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
  13. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.01
    0.010775795 = product of:
      0.037715282 = sum of:
        0.012808002 = product of:
          0.032020003 = sum of:
            0.018125437 = weight(_text_:retrieval in 2490) [ClassicSimilarity], result of:
              0.018125437 = score(doc=2490,freq=4.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.16542503 = fieldWeight in 2490, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
            0.013894566 = weight(_text_:system in 2490) [ClassicSimilarity], result of:
              0.013894566 = score(doc=2490,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.1217929 = fieldWeight in 2490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
          0.4 = coord(2/5)
        0.024907282 = product of:
          0.049814563 = sum of:
            0.049814563 = weight(_text_:zugriff in 2490) [ClassicSimilarity], result of:
              0.049814563 = score(doc=2490,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.23060973 = fieldWeight in 2490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  14. Kleinschmidt, P.; Rank, C.: Relationale Datenbanksysteme : eine praktische Einführung (2001) 0.01
    0.010166238 = product of:
      0.07116366 = sum of:
        0.07116366 = product of:
          0.14232732 = sum of:
            0.14232732 = weight(_text_:zugriff in 6137) [ClassicSimilarity], result of:
              0.14232732 = score(doc=6137,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.65888494 = fieldWeight in 6137, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.078125 = fieldNorm(doc=6137)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Abstract
    Dieses Buch ist eine praktische Einführung in den Entwurf und die Programierung von relationalen Datenbanksystemen, wie sie heute vor allem in betrieblichen Bereichen eingesetzt werden. Es vermittelt detaillierte Kenntnisse der Sprache SQL, die als Standard für den Zugriff auf diese Systeme etabliert ist. Zahlreiche Beispiele und Übungsaufgaben begleiten den Text
  15. Wissensmanagement im Zeitalter der Netze : Proceedings des 21. Kolloquiums über Information und Dokumentation, 21.-23.9.2000 in Friedrichroda/Thüringen (2000) 0.01
    0.010166238 = product of:
      0.07116366 = sum of:
        0.07116366 = product of:
          0.14232732 = sum of:
            0.14232732 = weight(_text_:zugriff in 1180) [ClassicSimilarity], result of:
              0.14232732 = score(doc=1180,freq=2.0), product of:
                0.2160124 = queryWeight, product of:
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.03622214 = queryNorm
                0.65888494 = fieldWeight in 1180, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.963546 = idf(docFreq=308, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1180)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Content
    Wissensmanagement bei Finanzdienstleistern - Inhaltliche Organisation von Netzen - Internetportale für den Zugriff auf Patentinformationen im Werksnetz - Informationsvermittlungsstelle als innerbetrieblicher Content-Provider - Homo connecticus vs. Homo sapiens
  16. Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007) 0.01
    0.009667329 = product of:
      0.0676713 = sum of:
        0.0676713 = sum of:
          0.05032031 = weight(_text_:zugriff in 4064) [ClassicSimilarity], result of:
            0.05032031 = score(doc=4064,freq=4.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.23295102 = fieldWeight in 4064, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4064)
          0.017350987 = weight(_text_:22 in 4064) [ClassicSimilarity], result of:
            0.017350987 = score(doc=4064,freq=4.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.13679022 = fieldWeight in 4064, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4064)
      0.14285715 = coord(1/7)
    
    Content
    Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
    Date
    20. 1.2018 20:22:16
    Footnote
    Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
    Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
  17. Scott, M.L.: Dewey Decimal Classification, 22nd edition : a study manual and number building guide (2005) 0.01
    0.009279358 = product of:
      0.03247775 = sum of:
        0.007939752 = product of:
          0.03969876 = sum of:
            0.03969876 = weight(_text_:system in 4594) [ClassicSimilarity], result of:
              0.03969876 = score(doc=4594,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.3479797 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4594)
          0.2 = coord(1/5)
        0.024538001 = product of:
          0.049076002 = sum of:
            0.049076002 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.049076002 = score(doc=4594,freq=2.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.38690117 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    This work has been fully updated for the 22nd edition of DDC, and is used as reference for the application of Dewey coding or as a course text in the Dewey System
    Object
    DDC-22
  18. Alex, H.; Betz, A.; Heiner-Freiling, M.; Jackenkroll, M.; Mengel, T.; Preuss, M.: Dewey-Dezimalklassifikation : DDC 22 Deutsch. Übersichten (2005) 0.01
    0.009097494 = product of:
      0.03184123 = sum of:
        0.012210828 = product of:
          0.03052707 = sum of:
            0.014647567 = weight(_text_:retrieval in 4554) [ClassicSimilarity], result of:
              0.014647567 = score(doc=4554,freq=2.0), product of:
                0.109568894 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13368362 = fieldWeight in 4554, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4554)
            0.015879504 = weight(_text_:system in 4554) [ClassicSimilarity], result of:
              0.015879504 = score(doc=4554,freq=2.0), product of:
                0.11408355 = queryWeight, product of:
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03622214 = queryNorm
                0.13919188 = fieldWeight in 4554, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.1495528 = idf(docFreq=5152, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4554)
          0.4 = coord(2/5)
        0.0196304 = product of:
          0.0392608 = sum of:
            0.0392608 = weight(_text_:22 in 4554) [ClassicSimilarity], result of:
              0.0392608 = score(doc=4554,freq=8.0), product of:
                0.12684377 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03622214 = queryNorm
                0.30952093 = fieldWeight in 4554, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4554)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) ist Ende 2003 in der 22. Ausgabe der Standard Edition auf Englisch erschienen und wird genau zwei Jahre später nun auch auf Deutsch veröffentlicht. Nach Übersetzungen ins Französische, Italienische, Russische und Spanische ist unter Beteiligung der drei deutschsprachigen Länder und mit Unterstützung durch die Deutsche Forschungsgemeinschaft die Voraussetzung dafür geschaffen worden, dass diese international weit verbreitete Klassifikation auch in Deutschland, Österreich und der Schweiz heimisch werden kann. Die hier vorgelegten Übersichten, die die drei obersten Ebenen oder 1 000 Klassen der DDC umfassen, ermöglichen einen Einblick in die Gliederung der gesamten Klassifikation und sind in dieser Form für Bibliotheken und wissenschaftliche Einrichtungen frei verfügbar, während die tieferen Ebenen der DDC durch das Urheberrecht geschützt sind. Die vollständige Ausgabe der DDC 22 Deutsch erscheint 2005 im Verlag K. G. Saur. Mit dem Webservice Melvil bietet Die Deutsche Bibliothek ab Januar 2006 eine deutsche Version von WebDewey an, ergänzt um ein Recherchetool für das Retrieval DDC-erschlossener Daten. Die DDC 22 ist von einer an der Fachhochschule Köln angesiedelten Arbeitsgruppe ins Deutsche übersetzt worden, unterstützt von einemTeam von Fachreferentinnen und Fachreferenten an zahlreichen Bibliotheken des deutschen Sprachraums und fachlich beraten von der Expertengruppe DDC Deutsch. Die organisatorische Leitung des Projekts DDC Deutsch lag bei Der Deutschen Bibliothek als federführendem Mitglied des Konsortiums DDC Deutsch. Ab 2006 wird die Deutsche Nationalbibliografie vollständige DDC-Notationen mitliefern, bereits seit Bibliografiejahrgang 2004 folgen die Sachgruppen der Deutschen Nationalbibliografie einer auf den beiden obersten Ebenen der DDC basierenden Gliederung. Die hier vorgelegte Übersetzung der DDC wurde mit der Herausgeberin der DDC, Joan Mitchell (OCLC, Dublin/Ohio) und ihren Mitherausgebern an der Library of Congress abgestimmt, denen wir für ihre Unterstützung und Beratung herzlich danken. Die kurze Einführung in die Dewey-Dezimalklassifikation, die hier folgt, stellt das gesamte System der DDC vor, das mit seinen Haupt- und Hilfstafeln mehr als 60 000 Klassen umfasst. Die Möglichkeiten zur Erschließung differenzierterThemen gehen daher weit über die hier vorgelegten obersten Klassen der DDC hinaus und berücksichtigen viele moderne Teildisziplinen, die man in den Übersichten vielleicht vermisst. Bei der Verwendung der Übersichten ist zu beachten, dass aus drucktechnischen Gründen in einigen Fällen Klassen nur verkürzt wiedergegeben werden können und nur durch ihre Position innerhalb einer Folge von Klassen genau zu verstehen sind. Daher sollten für die Erschließung auch die vollständigen Klassenbenennungen herangezogen werden, die unter www.ddc-deutsch.de im Netz zur Verfügung stehen.
  19. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.01
    0.00894133 = product of:
      0.06258931 = sum of:
        0.06258931 = sum of:
          0.05032031 = weight(_text_:zugriff in 2331) [ClassicSimilarity], result of:
            0.05032031 = score(doc=2331,freq=4.0), product of:
              0.2160124 = queryWeight, product of:
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.03622214 = queryNorm
              0.23295102 = fieldWeight in 2331, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.963546 = idf(docFreq=308, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2331)
          0.0122690005 = weight(_text_:22 in 2331) [ClassicSimilarity], result of:
            0.0122690005 = score(doc=2331,freq=2.0), product of:
              0.12684377 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03622214 = queryNorm
              0.09672529 = fieldWeight in 2331, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.01953125 = fieldNorm(doc=2331)
      0.14285715 = coord(1/7)
    
    Footnote
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    RSWK
    Internet / Suchmaschine / Wissensorganisation / Zugriff / Zensur
    Subject
    Internet / Suchmaschine / Wissensorganisation / Zugriff / Zensur
  20. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.01
    0.008898153 = product of:
      0.06228707 = sum of:
        0.06228707 = weight(_text_:abfrage in 5134) [ClassicSimilarity], result of:
          0.06228707 = score(doc=5134,freq=2.0), product of:
            0.28580084 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03622214 = queryNorm
            0.21793872 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.01953125 = fieldNorm(doc=5134)
      0.14285715 = coord(1/7)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.

Languages

  • e 233
  • d 180
  • m 5
  • es 2
  • f 1
  • i 1
  • More… Less…

Types

  • s 127
  • i 6
  • x 5
  • el 2
  • b 1
  • n 1
  • More… Less…

Themes

Subjects

Classifications