Search (113 results, page 1 of 6)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Tetens, H.: Philosophisches Argumentieren : Eine Einführung (2015) 0.21
    0.21496114 = product of:
      0.57322973 = sum of:
        0.19868918 = weight(_text_:philosophie in 145) [ClassicSimilarity], result of:
          0.19868918 = score(doc=145,freq=36.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            1.2417872 = fieldWeight in 145, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.08817501 = weight(_text_:systematische in 145) [ClassicSimilarity], result of:
          0.08817501 = score(doc=145,freq=4.0), product of:
            0.1846177 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.030198902 = queryNorm
            0.47760868 = fieldWeight in 145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.19868918 = weight(_text_:philosophie in 145) [ClassicSimilarity], result of:
          0.19868918 = score(doc=145,freq=36.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            1.2417872 = fieldWeight in 145, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.02317899 = weight(_text_:und in 145) [ClassicSimilarity], result of:
          0.02317899 = score(doc=145,freq=16.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 145, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.041318387 = weight(_text_:technik in 145) [ClassicSimilarity], result of:
          0.041318387 = score(doc=145,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.2749246 = fieldWeight in 145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
        0.02317899 = weight(_text_:und in 145) [ClassicSimilarity], result of:
          0.02317899 = score(doc=145,freq=16.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 145, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=145)
      0.375 = coord(6/16)
    
    Abstract
    Wer philosophiert, der argumentiert. Dabei hält sich das erstaunliche Vorurteil, daß beim philosophischen Argumentieren einfach nur die formale Logik auf die Themen der Philosophie anzuwenden sei. Aber mit Logikkenntnissen allein ist es nicht getan. Das spannende und aufregende Denkabenteuer philosophischen Argumentierens beginnt jenseits des bloß Formalen. Holm Tetens legt ein Buch vor, das in die Eigenheiten philosophischen Argumentierens ganz von den inhaltlichen Themen und Problemen der Philosophie her einführt. Dabei kommt die formale Logik durchaus zu ihrem Recht, indem zu Anfang ihre Prinzipien und die Technik ihrer Anwendung vorgestellt werden. Ansonsten ist das Buch aber so untechnisch geschrieben, daß man ihm auch ohne tiefere Logikkenntnisse gut folgen kann. Für jeden, der sich für die Philosophie interessiert, sei er Anfänger, Laie oder bereits gut mit ihr vertraut, hält dieses Buch eine Fülle an Informationen und provokanten Denkanregungen bereit.
    BK
    08.33 Logik Philosophie
    08.03 Grundlagen und Methoden der Philosophie
    Classification
    CB 4000: Einführungen in die Philosophie / Philosophie / Allgemeines
    CC 2400: Einführungen, Handbücher, Sammelbände und Bibliografien / Philosophie / Systematische Philosophie
    08.33 Logik Philosophie
    08.03 Grundlagen und Methoden der Philosophie
    Field
    Philosophie
    RSWK
    Philosophie / Argumentation / Einführung
    RVK
    CB 4000: Einführungen in die Philosophie / Philosophie / Allgemeines
    CC 2400: Einführungen, Handbücher, Sammelbände und Bibliografien / Philosophie / Systematische Philosophie
    Subject
    Philosophie / Argumentation / Einführung
  2. Grundlagen der praktischen Information und Dokumentation (2004) 0.08
    0.08246276 = product of:
      0.18848631 = sum of:
        0.033114865 = weight(_text_:philosophie in 693) [ClassicSimilarity], result of:
          0.033114865 = score(doc=693,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.20696454 = fieldWeight in 693, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.031174576 = weight(_text_:systematische in 693) [ClassicSimilarity], result of:
          0.031174576 = score(doc=693,freq=2.0), product of:
            0.1846177 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.030198902 = queryNorm
            0.16886017 = fieldWeight in 693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.033114865 = weight(_text_:philosophie in 693) [ClassicSimilarity], result of:
          0.033114865 = score(doc=693,freq=4.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.20696454 = fieldWeight in 693, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.029262042 = weight(_text_:und in 693) [ClassicSimilarity], result of:
          0.029262042 = score(doc=693,freq=102.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.43719158 = fieldWeight in 693, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.029262042 = weight(_text_:und in 693) [ClassicSimilarity], result of:
          0.029262042 = score(doc=693,freq=102.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.43719158 = fieldWeight in 693, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.013142423 = weight(_text_:wissenschaft in 693) [ClassicSimilarity], result of:
          0.013142423 = score(doc=693,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.1096389 = fieldWeight in 693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
        0.019415502 = weight(_text_:als in 693) [ClassicSimilarity], result of:
          0.019415502 = score(doc=693,freq=10.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.19927084 = fieldWeight in 693, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
      0.4375 = coord(7/16)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
    Footnote
    Folgt weiter dem Vorbild der 2. Aufl. in der losen Zusammenstellung von Kapiteln verschiedener Autoren. Neu ist das Glossar in Bd.2. - Angeboten als gebundene und broschierte Ausgabe
    Rez. in: Mitteilungen VÖB 57(2004) H.3/4, S.86-90 (O. Oberhauser): " ...Allen kritischen Anmerkungen zum Trotz: Im Vergleich mit der letzten Auflage schneidet diese fünfte Ausgabe erfreulich positiv ab (nur Nörgler würden sagen, dass dies nicht schwergefallen ist). Natürlich könnte darüber reflektiert werden, ob es heute noch möglich ist, das Gesamtgebiet der Informationswissenschaft und -praxis in einem Handbuch erschöpfend darzustellen; die Zeiten, in denen man Wissenschaftsdisziplinen auf diese Weise repräsentierte und legitimierte, sind eigentlich vorüber. Andererseits fehlen, gerade im deutschen Sprachraum, weitgehend gute und aktuelle Darstellungen zu den hier präsentierten Teilbereichen. Als Einstieg in die Informationswissenschaft und -praxis ist das vorliegende Handbuch daher allemal wichtig. Auch für gestandene Praktiker bietet es viele interessante und neue Themen. Der Preis für die broschierte Ausgabe ist vielleicht nicht gerade wohlfeil, aber nach heutigen Massstäben dem Umfang angemessen. Grössere Bibliotheken und bibliothekarische bzw. informationswissenschaftliche Ausbildungseinrichtungen, für die auch diese Ausgabe unverzichtbar ist, werden dagegen wohl eher zur teureren gebundenen Variante greifen." Weitere Rez. in: BuB 57(2005) H.4, S.307-308 (H. Meinhardt); ZfBB 52(2005) H.6, S.349-350 (T. Seela); Information - Wissenschaft und Praxis 56(2005) H.8, S.457-458 (D. Soergel): "In sum, this work provides a comprehensive and competent introduction to information science with a breadth of scope that exists nowhere else. It does so through a collection of independent contributions of many authors with many perspectives and many redundancies. Some readers might prefer a treatment from a unified viewpoint."
    Issue
    2 Bde. 5., völlig neu gefaßte Ausgabe. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis. Bd.2: Glossar.
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  3. Brühl, B.: Thesauri und Klassifikationen : Naturwissenschaften - Technik - Wirtschaft (2005) 0.07
    0.07255187 = product of:
      0.19347166 = sum of:
        0.03822777 = weight(_text_:und in 3487) [ClassicSimilarity], result of:
          0.03822777 = score(doc=3487,freq=68.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5711447 = fieldWeight in 3487, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.073912576 = weight(_text_:technik in 3487) [ClassicSimilarity], result of:
          0.073912576 = score(doc=3487,freq=10.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.4918001 = fieldWeight in 3487, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.03822777 = weight(_text_:und in 3487) [ClassicSimilarity], result of:
          0.03822777 = score(doc=3487,freq=68.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.5711447 = fieldWeight in 3487, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.021027876 = weight(_text_:wissenschaft in 3487) [ClassicSimilarity], result of:
          0.021027876 = score(doc=3487,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.17542224 = fieldWeight in 3487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.013892601 = weight(_text_:als in 3487) [ClassicSimilarity], result of:
          0.013892601 = score(doc=3487,freq=2.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.1425866 = fieldWeight in 3487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.03125 = fieldNorm(doc=3487)
        0.008183069 = product of:
          0.016366137 = sum of:
            0.016366137 = weight(_text_:22 in 3487) [ClassicSimilarity], result of:
              0.016366137 = score(doc=3487,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.15476047 = fieldWeight in 3487, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3487)
          0.5 = coord(1/2)
      0.375 = coord(6/16)
    
    Abstract
    Das Buch gibt einen umfassenden Überblick über vorhandene Thesauri und Klassifikationen. Es liefert detaillierte Beschreibungen zu mehr als 150 Klassifikationen und Thesauri aus Naturwissenschaften, Technik, Wirtschaft und Patentwesen. Da gegenwärtig eine aktuelle Zusammenstellung international verfügbarer Thesauri und Klassifikationen fehlt, schließt das vorliegende Buch diese Lücke und kann somit dazu beitragen, Doppelarbeit bei der Erstellung von Thesauri und Klassifikationen zu verhindern und den intellektuellen wie kostenintensiven Aufwand zu minimieren. Zusätzlich bietet dieses Nachschlagewerk mit einem umfangreichen Index den Informationsspezialisten Unterstützung bei der Formulierung präziser Rechercheanfragen, indem es Informationen über Vorhandensein, Aufbau und Verfügbarkeit der Thesauri und Klassifikationen bereitstellt, die für die Recherche genutzt werden können. Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen.
    Footnote
    Rez. in: Information: Wissenschaft & Praxis 56(2005) H.5/6, S.337 (W. Ratzek): "Bettina Brühl legt mit "Thesauri und Klassifikationen" ein Fleißarbeit vor. Das Buch mit seiner Auswahl von über 150 Klassifikationen und Thesauri aus Naturwissenschaft, Technik, Wirtschaft und Patenwesen macht es zu einem brauchbaren Nachschlagewerk, zumal auch ein umfassender Index nach Sachgebieten, nach Datenbanken und nach Klassifikationen und Thesauri angeboten wird. Nach einer 13-seitigen Einführung (Kapitel 1 und 2) folgt mit dem 3. Kapitel die "Darstellung von Klassifikationen und Thesauri", im wesentlichen aus den Beschreibungen der Hersteller zusammengestellt. Hier werden Dokumentationssprachen der Fachgebiete - Naturwissenschaften (3.1) und deren Spezialisierungen wie zum Beispiel "Biowissenschaften und Biotechnologie", "Chemie" oder "Umwelt und Ökonomie", aber auch "Mathematik und Informatik" (?) auf 189 Seiten vorgestellt, - Technik mit zum Beispiel "Fachordnung Technik", "Subject Categories (INIS/ ETDE) mit 17 Seiten verhältnismäßig knapp abgehandelt, - Wirtschaft mit "Branchen-Codes", "Product-Codes", "Länder-Codes"",Fachklas-sifikationen" und "Thesauri" ausführlich auf 57 Seiten präsentiert, - Patente und Normen mit zum Beispiel "Europäische Patentklassifikation" oder "International Patent Classification" auf 33 Seiten umrissen. Jedes Teilgebiet wird mit einer kurzen Beschreibung eingeleitet. Danach folgen die jeweiligen Beschreibungen mit den Merkmalen: "Anschrift des Erstellers", "Themen-gebiet(e)", "Sprache", "Verfügbarkeit", "An-wendung" und "Ouelle(n)". "Das Buch wendet sich an alle Information Professionals, die Dokumentationssprachen aufbauen und nutzen" heißt es in der Verlagsinformation. Zwar ist es nicht notwendig, die informationswissenschaftlichen Aspekte der Klassifikationen und Thesauri abzuhandeln, aber ein Hinweis auf die Bedeutung der Information und Dokumentation und/oder der Informationswissenschaft wäre schon angebracht, um in der Welt der Informations- und Wissenswirtschaft zu demonstrieren, welchen Beitrag unsere Profession leistet. Andernfalls bleibt das Blickfeld eingeschränkt und der Anschluss an neuere Entwicklungen ausgeblendet. Dieser Anknüpfungspunkt wäre beispielsweise durch einen Exkurs über Topic Map/Semantic Web gegeben. Der Verlag liefert mit der Herausgabe die ses Kompendiums einen nützlichen ersten Baustein zu einem umfassenden Verzeichnis von Thesauri und Klassifikationen."
    Series
    Materialien zur Information und Dokumentation; Bd.22
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2006) 0.07
    0.06964274 = product of:
      0.22285676 = sum of:
        0.07947568 = weight(_text_:philosophie in 592) [ClassicSimilarity], result of:
          0.07947568 = score(doc=592,freq=16.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.4967149 = fieldWeight in 592, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.07947568 = weight(_text_:philosophie in 592) [ClassicSimilarity], result of:
          0.07947568 = score(doc=592,freq=16.0), product of:
            0.1600026 = queryWeight, product of:
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.030198902 = queryNorm
            0.4967149 = fieldWeight in 592, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.298292 = idf(docFreq=600, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.024585033 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.024585033 = score(doc=592,freq=50.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 592, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.024585033 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.024585033 = score(doc=592,freq=50.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 592, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
        0.01473533 = weight(_text_:als in 592) [ClassicSimilarity], result of:
          0.01473533 = score(doc=592,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.15123594 = fieldWeight in 592, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0234375 = fieldNorm(doc=592)
      0.3125 = coord(5/16)
    
    Classification
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    CD 3067 [Philosophie # Geschichte der Philosophie # Geschichte der Philosophie des Abendlandes # Philosophie der griechischen Antike # Autoren # Plato # Abhandlungen, Studien]
    Footnote
    Rez. in: Online-Mitteilungen 2006, H.88, S.13-15 [=Mitteilungen VOEB 59(2006) H.4] (M. Katzmayr): "Dieses Lehrbuch nun in der 5., völlig neu bearbeiteten Auflage vorliegend - hat zum Ziel, eine praxisorientierte Einführung in das Information Retrieval (IR) zu liefern. Es stellt gemeinsam mit den von derselben Autorin verfassten fachbezogenen Bänden "Wirtschaftsinformation: Online, CD-ROM, Internet" und "Naturwissenschaftlich-technische Information: Online,, CD-ROM, Internet" eine dreiteilige Gesamtausgabe zum IR dar. Der hier besprochene einführende Band gliedert sich in Grundlagen, Methoden und fachbezogene Aspekte (letzteres Kapitel wird in den erwähnten ergänzenden Bänden vertiefend behandelt). Dass es sich bei diesem Band um ein Lehrbuch handelt, wird nicht zuletzt durch Wiederholungsfragen am Ende jedes Kapitels, Rechercheübungen und einige Hausübungen verdeutlicht. Der Schwerpunkt liegt bei lizenzpflichtigen OnlineDatenbanken, das Web Information Retrieval wird nicht behandelt. Das erste Kapitel, "Grundlagen des Information Retrieval", vermittelt ein Basiswissen rund um Recherchedatenbanken und ihren Einsatz, etwa wie Datenbanken gegliedert und einheitlich beschrieben werden können, wie Datensätze in Abhängigkeit der gespeicherten Informationen üblicherweise strukturiert sind, welche Arbeitsschritte eine Recherche typischerweise aufweist oder wie sich die Kosten einer Online-Recherche kategorisieren lassen. Schließlich wird auch eine knappe Marktübersicht wichtiger kommerzieller Datenbankanbieter gegeben. .Im folgenden Kapitel, "Methoden des Information Retrieval", wird das Kommandoretrieval anhand der Abfragesprache DataStarOnline (DSO), die beim Host Dialog DataStar zur Anwendung kommt, erklärt. Neben Grundfunktionen wie Datenbankeinwahl und -wechsel werden die Verwendung von Such und Näheoperatoren, Trunkierung, Limitierung und Befehle zur Anzeige und Ausgabe der Suchergebnisse sowie ausgewählte spezielle Funktionen ausführlich dargestellt. Anschließend findet sich eine mit Screenshots dokumentierte Anleitung zur Benutzung der Websuchoberflächen des Hosts.
    Das dritte Kapitel, "Fachbezogenes Information Retrieval", beschreibt die Retrievalmöglichkeiten der Hosts Dialog und STN International anhand der Retrievalsprachen Dialog und Messenger sowie der Weboberflächen der beiden Anbieter. Thematisch orientiert sich dieses Kapitel an der Wirtschaftsinformation bzw. naturwissenschaftlich-technischen Information. Ein Verzeichnis mit weiterführenden Monographien, eine Auflistung der elektronischen Referenzen und ein Register beschließen den Band. Um das umfassende Thema IR in ein überschaubares Lehrbuchau packen, müssen zwangsläufig Abstriche und Schwerpunktsetzungen vorgenommen werden; die Autorin hat in Abstimmung mit ihrer Lehrveranstaltung, wozu dieses Buch die Lernunterlage bildet, diesen auf lizenzpflichtige Online-Datenbanken gelegt. Allerdings kann diese Einschränkung den Eindruck erwecken, seriöse Recherche sei ausschließlich auf kostenpflichtige Angebote angewiesen; das immer wichtiger und umfangreicher werdende Angebot an wissenschaftlichen-und qualitätskontrollierten kostenlosen' oder gar Open Access-Datenbankeng sollte in einem Einführungsband zumindest erwähnt werden. Eine Abklärung, ob für die Befriedigung eines Informationsbedarfes überhaupt kostenpflichtige Abfragen notig sind, sollte explizit Bestandteil jeder Recherchevorbereitung (Kap. 1.3.) sein. Es wäre fürspätere Auflagen auch zu überlegen, ob nicht etwa boolesche und Näheoperatoren, Phrasensuche, Trunkierung, Klammerung und Feldsuche allgemein und abstrakt im ersten Kapitel besprochen werden sollten. Diese Suchtechniken werden jetzt im 2. und 3. Kapitel nur anhand der ausgewählten Retrievalsprachen: abgehandelt. Andernfalls könnte da<_ erste Kapitel als eigenständige, knappe Leseempfehlung und Lernunterlage zur Einführung in die Datenbankrecherche in der grundständigen Lehre verwendet werden, selbst wenn die Retrievalmöglichkeiten der spezifischen Hosts nicht Unterrichtsthema sind. Etwas schwerer als diese inhaltlichen Anmerkungen wiegt der Vorwurf an die optische Gestaltung des Textes. Uneinheitliche Schriftgrößen, eine Überladung mit Hervorhebungen (Kursivsetzungen, Fettdrucke, Unterstreichungen, mitunter in Kombination) sowie die generelle Bevorzugung der Aufzählung gegenüber dem Fließtext führen zu einem eher unruhigen Erscheinungsbild, was die Auseinandersetzung mit der Thematik und das Zurechtfinden im Buch wohl ein wenig erschwert. Fazit: trotz der angeführten Kritikpunkte handelt es sich hier um einen, empfehlenswerten Einstieg für den Umgang mit Recherchedatenbanken - insbesondere für jene Leserinnen, die an einer explizit praxisorientierten Einführung zum Kommandoretrieval für die angesprochenen Hosts interessiert sind."
    RVK
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    CD 3067 [Philosophie # Geschichte der Philosophie # Geschichte der Philosophie des Abendlandes # Philosophie der griechischen Antike # Autoren # Plato # Abhandlungen, Studien]
    Series
    Materialien zur Information und Dokumentation; Bd.5
  5. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.03
    0.028761832 = product of:
      0.11504733 = sum of:
        0.024585033 = weight(_text_:und in 2550) [ClassicSimilarity], result of:
          0.024585033 = score(doc=2550,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 2550, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
        0.041318387 = weight(_text_:technik in 2550) [ClassicSimilarity], result of:
          0.041318387 = score(doc=2550,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.2749246 = fieldWeight in 2550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
        0.024585033 = weight(_text_:und in 2550) [ClassicSimilarity], result of:
          0.024585033 = score(doc=2550,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.3673144 = fieldWeight in 2550, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
        0.024558881 = weight(_text_:als in 2550) [ClassicSimilarity], result of:
          0.024558881 = score(doc=2550,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.25205988 = fieldWeight in 2550, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
      0.25 = coord(4/16)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
    Footnote
    Rez. in: ABI Technik 32(2012) H.2, S.113-114 (F. Förster)
  6. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.03
    0.028591128 = product of:
      0.09149161 = sum of:
        0.025071913 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.025071913 = score(doc=729,freq=52.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.37458867 = fieldWeight in 729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.02479103 = weight(_text_:technik in 729) [ClassicSimilarity], result of:
          0.02479103 = score(doc=729,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.16495475 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.025071913 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.025071913 = score(doc=729,freq=52.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.37458867 = fieldWeight in 729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.010419452 = weight(_text_:als in 729) [ClassicSimilarity], result of:
          0.010419452 = score(doc=729,freq=2.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.10693996 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0234375 = fieldNorm(doc=729)
        0.006137301 = product of:
          0.012274602 = sum of:
            0.012274602 = weight(_text_:22 in 729) [ClassicSimilarity], result of:
              0.012274602 = score(doc=729,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.116070345 = fieldWeight in 729, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=729)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
    Date
    22. 6.2005 15:12:11
  7. Holzinger, A.: Basiswissen Multimedia : Bd.1: Technik (2000) 0.03
    0.02778691 = product of:
      0.14819686 = sum of:
        0.032780044 = weight(_text_:und in 5813) [ClassicSimilarity], result of:
          0.032780044 = score(doc=5813,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 5813, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5813)
        0.08263677 = weight(_text_:technik in 5813) [ClassicSimilarity], result of:
          0.08263677 = score(doc=5813,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.5498492 = fieldWeight in 5813, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=5813)
        0.032780044 = weight(_text_:und in 5813) [ClassicSimilarity], result of:
          0.032780044 = score(doc=5813,freq=8.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.48975256 = fieldWeight in 5813, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5813)
      0.1875 = coord(3/16)
    
    Abstract
    Multimedia und Internet, Hypertext und Hypermedia - spannende Begriffe an der Schwelle zum nächsten Jahrtausend. Das Fachbuch behandelt technologische Grundlagen multimedialer Informationssysteme: - Information und Kommunikation / Signale und Codierung / Audiotechnik / Videotechnik / Multimedia via Internet
  8. Hahn, G.: Sacherschließung in Spezialbibliotheken : eine Einführung in Formen und Systeme (1992) 0.02
    0.024186518 = product of:
      0.12899476 = sum of:
        0.02317899 = weight(_text_:und in 8249) [ClassicSimilarity], result of:
          0.02317899 = score(doc=8249,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 8249, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8249)
        0.08263677 = weight(_text_:technik in 8249) [ClassicSimilarity], result of:
          0.08263677 = score(doc=8249,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.5498492 = fieldWeight in 8249, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.078125 = fieldNorm(doc=8249)
        0.02317899 = weight(_text_:und in 8249) [ClassicSimilarity], result of:
          0.02317899 = score(doc=8249,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.34630734 = fieldWeight in 8249, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=8249)
      0.1875 = coord(3/16)
    
    Footnote
    Rez. in: Knowledge organization 21(1994) no.1, S.47-48 (W. Bies); ABI-Technik 14(1994) H.3, S.262-264 (G. Stumpf)
    Series
    Arbeitshefte der Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken; Nr.46
  9. Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013) 0.02
    0.02294917 = product of:
      0.09179668 = sum of:
        0.028103035 = weight(_text_:und in 4382) [ClassicSimilarity], result of:
          0.028103035 = score(doc=4382,freq=48.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41987535 = fieldWeight in 4382, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
        0.028103035 = weight(_text_:und in 4382) [ClassicSimilarity], result of:
          0.028103035 = score(doc=4382,freq=48.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.41987535 = fieldWeight in 4382, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
        0.018399393 = weight(_text_:wissenschaft in 4382) [ClassicSimilarity], result of:
          0.018399393 = score(doc=4382,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.15349446 = fieldWeight in 4382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
        0.017191218 = weight(_text_:als in 4382) [ClassicSimilarity], result of:
          0.017191218 = score(doc=4382,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.17644192 = fieldWeight in 4382, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
      0.25 = coord(4/16)
    
    Abstract
    Seit vierzig Jahren vermittelt das Standardwerk Wissenschaftlern, Praktikern und Studierenden Grundlagen der professionellen, wissenschaftlich fundierten Informationsarbeit. Mit der 6., völlig neu gefassten Auflage reagieren die Herausgeber Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch auf die erheblichen technischen, methodischen und organisatorischen Veränderungen auf dem Gebiet der Information und Dokumentation und tragen damit der raschen Entwicklung des Internets und der Informationswissenschaft Rechnung. Die insgesamt über fünfzig Beiträge sind vier Teilen - Grundlegendes (A), Methodisches (B), Informationsorganisation (C) und Informationsinfrastrukturen (D) - zugeordnet.
    Content
    Enthält die Beiträge: A: Grundlegendes Rainer Kuhlen: Information - Informationswissenschaft - Ursula Georgy: Professionalisierung in der Informationsarbeit - Thomas Hoeren: Urheberrecht und Internetrecht - Stephan Holländer, Rolf A. Tobler: Schweizer Urheberrecht im digitalen Umfeld - Gerhard Reichmann: Urheberrecht und Internetrecht: Österreich - Rainer Kuhlen: Wissensökologie - Wissen und Information als Commons (Gemeingüter) - Rainer Hammwöhner: Hypertext - Christa Womser-Hacker, Thomas Mandl: Information Seeking Behaviour (ISB) - Hans-Christoph Hobohm: Informationsverhalten (Mensch und Information) - Urs Dahinden: Methoden empirischer Sozialforschung für die Informationspraxis - Michael Seadle: Ethnografische Verfahren der Datenerhebung - Hans-Christoph Hobohm: Erhebungsmethoden in der Informationsverhaltensforschung
    B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
    C: Informationsorganisation Helmut Krcmar: Informations- und Wissensmanagement - Eberhard R. Hilf, Thomas Severiens: Vom Open Access für Dokumente und Daten zu Open Content in der Wissenschaft - Christa Womser-Hacker: Evaluierung im Information Retrieval - Joachim Griesbaum: Online-Marketing - Nicola Döring: Modelle der Computervermittelten Kommunikation - Harald Reiterer, Florian Geyer: Mensch-Computer-Interaktion - Steffen Staab: Web Science - Michael Weller, Elena Di Rosa: Lizenzierungsformen - Wolfgang Semar, Sascha Beck: Sicherheit von Informationssystemen - Stefanie Haustein, Dirk Tunger: Sziento- und bibliometrische Verfahren
    D: Informationsinfrastruktur Dirk Lewandowski: Suchmaschinen - Ben Kaden: Elektronisches Publizieren - Jens Olf, Uwe Rosemann: Dokumentlieferung - Reinhard Altenhöner, Sabine Schrimpf: Langzeitarchivierung - Hermann Huemer: Normung und Standardisierung - Ulrike Spree: Wörterbücher und Enzyklopädien - Joachim Griesbaum: Social Web - Jens Klump, Roland Bertelmann: Forschungsdaten - Michael Kerres, Annabell Preussler, Mandy Schiefner-Rohs: Lernen mit Medien - Angelika Menne-Haritz: Archive - Axel Ermert, Karin Ludewig: Museen - Hans-Christoph Hobohm: Bibliothek im Wandel - Thomas Breyer-Mayländer: Medien, Medienwirtschaft - Helmut Wittenzellner: Transformation von Buchhandel, Verlag und Druck - Elke Thomä, Heike Schwanbeck: Patentinformation und Patentinformationssysteme
    Footnote
    Auch als eBook; vgl.: http://www.degruyter.com/view/product/174371?rskey=Hzo8Fb&result=3&q=kuhlen. Rez. in: iwp 64(2013) H.6, S.375-377 (U. Herb); Mitt VOEB 66(2013) H.3/4, S.681-686 (C. Schlögl); BuB 66(2014) H.2, S.150-152 (J. Bertram)
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  10. Vonhoegen, H.: Einstieg in XML (2002) 0.02
    0.020991737 = product of:
      0.08396695 = sum of:
        0.02980777 = weight(_text_:und in 4002) [ClassicSimilarity], result of:
          0.02980777 = score(doc=4002,freq=54.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.44534507 = fieldWeight in 4002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.02980777 = weight(_text_:und in 4002) [ClassicSimilarity], result of:
          0.02980777 = score(doc=4002,freq=54.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.44534507 = fieldWeight in 4002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.017191218 = weight(_text_:als in 4002) [ClassicSimilarity], result of:
          0.017191218 = score(doc=4002,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.17644192 = fieldWeight in 4002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4002)
        0.007160185 = product of:
          0.01432037 = sum of:
            0.01432037 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
              0.01432037 = score(doc=4002,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.1354154 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4002)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  11. Booth, P.F.: Indexing : the manual of good practice (2001) 0.02
    0.020362586 = product of:
      0.08145034 = sum of:
        0.022472866 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.022472866 = score(doc=1968,freq=94.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.022472866 = weight(_text_:und in 1968) [ClassicSimilarity], result of:
          0.022472866 = score(doc=1968,freq=94.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.33575743 = fieldWeight in 1968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.010513938 = weight(_text_:wissenschaft in 1968) [ClassicSimilarity], result of:
          0.010513938 = score(doc=1968,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.08771112 = fieldWeight in 1968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
        0.025990676 = weight(_text_:als in 1968) [ClassicSimilarity], result of:
          0.025990676 = score(doc=1968,freq=28.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.2667551 = fieldWeight in 1968, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
      0.25 = coord(4/16)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
  12. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.02
    0.020069562 = product of:
      0.08027825 = sum of:
        0.026224036 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.026224036 = score(doc=1767,freq=32.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.026224036 = weight(_text_:und in 1767) [ClassicSimilarity], result of:
          0.026224036 = score(doc=1767,freq=32.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.39180204 = fieldWeight in 1767, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.019647105 = weight(_text_:als in 1767) [ClassicSimilarity], result of:
          0.019647105 = score(doc=1767,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.20164791 = fieldWeight in 1767, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.008183069 = product of:
          0.016366137 = sum of:
            0.016366137 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.016366137 = score(doc=1767,freq=2.0), product of:
                0.10575141 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.030198902 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  13. Fugmann, R.: Theoretische Grundlagen der Indexierungspraxis (1992) 0.02
    0.019349212 = product of:
      0.103195794 = sum of:
        0.018543193 = weight(_text_:und in 319) [ClassicSimilarity], result of:
          0.018543193 = score(doc=319,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.27704588 = fieldWeight in 319, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=319)
        0.06610941 = weight(_text_:technik in 319) [ClassicSimilarity], result of:
          0.06610941 = score(doc=319,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.43987936 = fieldWeight in 319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.0625 = fieldNorm(doc=319)
        0.018543193 = weight(_text_:und in 319) [ClassicSimilarity], result of:
          0.018543193 = score(doc=319,freq=4.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.27704588 = fieldWeight in 319, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=319)
      0.1875 = coord(3/16)
    
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    Footnote
    Rez. in: ABI-Technik 12(1992) Nr.4, S.387-388 (H. Nohr); Knowledge organization 21(1994) no.2, S.107-108 (E. Oeser)
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  14. Chu, H.: Information representation and retrieval in the digital age (2010) 0.02
    0.019212414 = product of:
      0.076849654 = sum of:
        0.02493966 = weight(_text_:systematische in 92) [ClassicSimilarity], result of:
          0.02493966 = score(doc=92,freq=2.0), product of:
            0.1846177 = queryWeight, product of:
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.030198902 = queryNorm
            0.13508813 = fieldWeight in 92, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.113391 = idf(docFreq=265, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.019939324 = weight(_text_:und in 92) [ClassicSimilarity], result of:
          0.019939324 = score(doc=92,freq=74.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29790485 = fieldWeight in 92, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.019939324 = weight(_text_:und in 92) [ClassicSimilarity], result of:
          0.019939324 = score(doc=92,freq=74.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.29790485 = fieldWeight in 92, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
        0.012031347 = weight(_text_:als in 92) [ClassicSimilarity], result of:
          0.012031347 = score(doc=92,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.12348363 = fieldWeight in 92, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
      0.25 = coord(4/16)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
    Die Kapitel fünf bis neun widmen sich dann ausführlich dem Information Retrieval. Zuerst werden grundlegende Retrievaltechniken vorgestellt und ihre Vor- und Nachteile dargestellt. Aus der Sicht des Nutzers von IR-Systemen wird der Prozess des Bildens einer Suchanfrage diskutiert und die damit verbundenen Probleme aufgezeigt. Im sechsten Kapitel werden die Retrieval-Ansätze Suchen und Browsen gegenübergestellt, entsprechende Suchstrategien aufgezeigt und schließlich Ansätze diskutiert, die suchen und browsen zu integrieren versuchen. Das siebte Kapitel beschäftigt sich dann mit dem, was den Kern der meisten IRBücher ausmacht: den IR-Modellen. Diese werden kurz vorgestellt, auf Formeln wird weitgehend verzichtet. Dies ist jedoch durchaus als Vorteil zu sehen, denn gerade Studienanfängern bereitet das Verständnis der IR-Modelle aufgrund deren Komplexität oft Schwierigkeiten. Nach der Lektüre dieses Kapitels wird man zwar nicht im Detail über die verschiedenen Modelle Bescheid wissen, wird sie jedoch kennen und einordnen können.
    In Kapitel acht werden unterschiedliche Arten von IR-Systemen vorgestellt. Dies sind Online IR-Systeme, CD-ROM-Systeme, OPACs und Internet IR-Systeme, denen der Grossteil dieses Kapitels gewidmet ist. Zu jeder Art von System werden die historische Entwicklung und die Besonderheiten genannt. Bei den Internet-IR-Systemen wird ausführlich auf die besonderen Probleme, die bei diesen im Vergleich zu klassischen IR-Systemen auftauchen, eingegangen. Ein extra Kapitel behandelt die Besonderheiten des Retrievals bei besonderen Dokumentkollektionen und besonderen Formaten. Hier finden sich Informationen zum multilingualen Retrieval und zur Suche nach Multimedia-Inhalten, wobei besonders auf die Unterscheidung zwischen beschreibungs- und inhaltsbasiertem Ansatz der Erschließung solcher Inhalte eingegangen wird. In Kapitel zehn erfährt der Leser mehr über die Stellung des Nutzers in IRR-Prozessen. Die Autorin stellt verschiedene Arten von Suchinterfaces bzw. Benutzeroberflächen und Ansätze der Evaluation der Mensch-Maschine-Interaktion in solchen Systemen vor. Kapitel elf beschäftigt sich ausführlich mit der Evaluierung von IRR-Systemen und stellt die bedeutendsten Test (Cranfield und TREC) vor Ein kurzes abschließendes Kapitel behandelt Ansätze der künstlichen Intelligenz und ihre Anwendung bei IRR-Systemen. Der Aufbau, die knappe, aber dennoch präzise Behandlung des Themas sowie die verständliche Sprache machen dieses Buch zu eine sehr guten Einführung für Studenten in den ersten Semestern, die der englischen Sprache mächtig sind. Besonders positiv hervorzuheben ist die Behandlung auch der aktuellen Themen des IRR wie der Einsatz von Metadaten, die Behandlung von Multimedia-Informationen und der Schwerpunk bei den Internet-IR-Systemen.
    Leider gibt es in deutscher Sprache keinen vergleichbaren Titel. Das Information-Retrieval-Buch von Ferber (2003) ist eher mathematisch orientiert und dürfte Studienanfänger der Informationswissenschaft durch seine große Detailliertheit und der damit einhergehenden großen Anzahl von Formeln eher abschrecken. Es ist eher denjenigen empfohlen, die sich intensiver mit dem Thema beschäftigen möchten. Ähnlich verhält es sich mit dem von manchen gerne genutzten Skript von Fuhr. Das Buch von Gaus (2003) ist mittlerweile schon ein Klassiker, beschäftigt sich aber im wesentlichen mit der Wissensrepräsentation und bietet zudem wenig Aktuelles. So fehlen etwa die Themen Information Retrieval im Internet und Multimedia-Retrieval komplett. Auch die Materialsammlung von Poetzsch (2002) konzentriert sich auf IR in klassischen Datenbanken und strebt zudem auch keine systematische Darstellung des Gebiets an. Zu wünschen wäre also, dass das hier besprochene Buch auch hierzulande in der Lehre Verwendung finden würde, da es den Studierenden einen knappen, gut lesbaren Einblick in das Themengebiet gibt. Es sollte aufgrund der vorbildlichen Aufbereitung des Stoffs auch Vorbild für zukünftige Autoren von Lehrbüchern sein. Und letztlich würde sich der Rezensent eine deutsche Übersetzung dieses Bandes wünschen."
  15. Vickery, B.C.; Vickery, A.: Information science in theory and practice (1993) 0.02
    0.018615678 = product of:
      0.09928362 = sum of:
        0.03245059 = weight(_text_:und in 3033) [ClassicSimilarity], result of:
          0.03245059 = score(doc=3033,freq=16.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4848303 = fieldWeight in 3033, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3033)
        0.03245059 = weight(_text_:und in 3033) [ClassicSimilarity], result of:
          0.03245059 = score(doc=3033,freq=16.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4848303 = fieldWeight in 3033, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3033)
        0.034382436 = weight(_text_:als in 3033) [ClassicSimilarity], result of:
          0.034382436 = score(doc=3033,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.35288385 = fieldWeight in 3033, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3033)
      0.1875 = coord(3/16)
    
    Abstract
    'Information science in theory and practice' berichtet über die wissenschaftlichen Erkenntnisse auf dem Feld des Informationsaustausches. Dabei werden die menschlichen und sozialen Aspekte ausführlicher behandelt als die rein technischen. Diskutiert werden die Fragen nach dem Verhalten der Menschen als Erzeuger, Empfänger und Nutzer von Informationen, der Organisiation und Funktionsweise von Informationssystemen, dem quantitativen Studium von informativen Mitteilungen, der semantischen Organisation von Mitteilungen und Kanälen mit dem Ziel der Identifizierbarmachung für Empfänger und Quelle und den Problemen bei der Informationsspeicherung, der Analyse und der Wiederauffindung. Die überarbeitete Auflage enthält außerdem aktuelle Verweise, einen neuen Anhang mit Informationen über die Forschung auf dem Gebiet der 'intelligent search interfaces' und einen neuen, detaillierten Index
  16. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.02
    0.018287918 = product of:
      0.07315167 = sum of:
        0.021495314 = weight(_text_:und in 210) [ClassicSimilarity], result of:
          0.021495314 = score(doc=210,freq=86.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.32115224 = fieldWeight in 210, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.021495314 = weight(_text_:und in 210) [ClassicSimilarity], result of:
          0.021495314 = score(doc=210,freq=86.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.32115224 = fieldWeight in 210, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.010513938 = weight(_text_:wissenschaft in 210) [ClassicSimilarity], result of:
          0.010513938 = score(doc=210,freq=2.0), product of:
            0.119870074 = queryWeight, product of:
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.030198902 = queryNorm
            0.08771112 = fieldWeight in 210, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.969352 = idf(docFreq=2269, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
        0.019647105 = weight(_text_:als in 210) [ClassicSimilarity], result of:
          0.019647105 = score(doc=210,freq=16.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.20164791 = fieldWeight in 210, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.015625 = fieldNorm(doc=210)
      0.25 = coord(4/16)
    
    Abstract
    Die inhaltliche Erschließung geht von der Frage aus, wie man sich gezielt und schnell einen Zugang zu Dokumentinhalten und eine Orientierung über sie verschaffen kann. Ein Dokument kann dabei alles sein, was als Träger inhaltlicher Daten in Betracht kommt: eine Patentschrift oder ein Plakat, ein Fernsehbeitrag oder ein Musikstück, ein musealer Gegenstand oder eine Internetquelle, ein Buch, ein Zeitungsartikel und vieles mehr. Als Dozentin für inhaltliche Erschließung am Potsdamer Institut für Information und Dokumentation (IID), das wissenschaftliche Dokumentare ausbildet, habe ich mich mit obiger Frage vier Jahre lang beschäftigt. Das vorliegende Buch stellt eine Essenz meiner Unterrichtsmaterialien dar, die ich im Laufe dieser Zeit entwickelt habe. Mit der Erstellung der Materialien wollte ich zum einen dem Mangel an aktueller deutschsprachiger Literatur zum Thema 'Inhaltserschließung' begegnen und außerdem das Lehrgeschehen so vollständig wie möglich dokumentieren. Die Zusammenfassung meiner Skripte zu einer Buchpublikation ist eine Reaktion auf das häufig geäußerte Bedürfnis der Kursteilnehmer, neben all den Loseblattsammlungen auch ein "richtiges Buch" erstehen zu können. Die Publikation richtet sich aber ebenso an mein derzeitiges Klientel, die Studentinnen und Studenten des Fachhochschulstudiengangs Informationsberufe in Eisenstadt (Österreich). Darüber hinaus ist sie an jegliche Teilnehmer von Studiengängen im Bibliotheks-, Informations- und Dokumentationsbereich adressiert. Zudem verbinde ich mit ihr die Hoffnung, daß sie auch der einen oder anderen lehrenden Person als ein Hilfsmittel dienen möge. Bei der Erstellung der Lehrmaterialien ging es mir nicht darum, das Rad neu zu erfinden. Vielmehr war es meine Absicht, die bereits vorhandenen Räder zusammenzutragen und in einem einheitlichen Konzept zu vereinen. Der Literaturpool, aus dem sich die Publikation speist, besteht zunächst aus nationalen und internationalen Normen, die den Bereich der Inhaltserschließung berühren. Dazu kommen die nicht eben zahlreichen Monographien und Aufsätze im deutschen Sprachraum sowie einige englischsprachige Buchpublikationen zum Thema. Schließlich habe ich Zeitschriftenartikel aus dem Bibliotheks- und Dokumentationsbereich der letzten vier Jahre einbezogen, mehrheitlich ebenfalls aus dem deutschen Sprachraum, vereinzelt aus dem anglo-amerikanischen. Ein wesentliches Anliegen dieses Buches ist es, Licht in das terminologische Dunkel zu bringen, das sich dem interessierten Leser bei intensivem Literaturstudium darbietet. Denn der faktische Sprachgebrauch weicht häufig vom genormten ab, die Bibliothekare verwenden andere Ausdrücke als die Dokumentare und Informationswissenschaftler, unterschiedliche Autoren sprechen unterschiedliche Sprachen und auch die Normen selbst sind längst nicht immer eindeutig. Ich habe mich um terminologische Konsistenz in der Weise bemüht, daß ich alternative deutsche Ausdrucksformen zu einem Terminus in Fußnoten aufführe. Dort finden sich gegebenenfalls auch die entsprechenden englischen Bezeichnungen, wobei ich mich in dieser Hinsicht überwiegend an dem genormten englischen Vokabular orientiert habe.
    Das Buch beginnt mit einem Überblick über die wesentlichen Themen der Inhaltserschließung (Kap. 1). Es führt in die zentrale Problemstellung ein, die sich an die Dualität zwischen Begriffen und Bezeichnungen knüpft (Kap. 2). Danach stehen die Methoden der Inhaltserschließung im Vordergrund: Das Abstracting (Kap. 3), das Indexieren (Kap. 4) und automatische Verfahren der Inhaltserschließung (Kap. 5). Für diese Methoden werden jeweils Arbeitschritte und Qualitätskriterien benannt und es werden typologische Unterteilungen vorgenommen. Ein weiteres Kapitel ist einem häufig vernachlässigtem Produkt inhaltserschließender Tätigkeit gewidmet, dem Register (Kap. 6). Mit Dokumentationssprachen kommen dann wichtige Erschließungsinstrumente zu Wort. Nach einem Überblick (Kap. 7) geht es um ihre beiden Ausprägungen, nämlich um Klassifikationen (Kap. 8-10) und um Thesauri (Kap. 11-12). Sie werden vor allem unter dem Aspekt ihrer Erstellung thematisiert. Zudem werden Qualitätskriterien und typologische Ausformungen angesprochen. Nach einem zusammenfassenden Vergleich von Dokumentationssprachen (Kap. 13) wird mit dem Internet schließlich exemplarisch ein Anwendungsbereich vorgestellt. Dabei geht es zunächst um die Erschließung von Internetquellen ganz allgemein (Kap. 14) und dann besonders um diejenige von Fachinformationsquellen (Kap. 15). Jedes Kapitel beginnt mit einem Überblick über die wesentlichen Inhalte und die zugrunde liegende Literatur und endet mit ausgewählten bibliographischen Angaben. Diese sind gegebenenfalls mit Hinweisen auf Rezensionen versehen. Die Gesamtheit der zitierten Literatur findet sich im abschließenden Literaturverzeichnis. Grundlegende Begriffe sind gesperrt kursiv, Beispiele und Eigennamen einfach kursiv gesetzt, Pfeile (->) stellen stets Verweise auf Abbildungen oder Tabellen dar. Die angeführten Internetquellen wurden zuletzt am 11-2-2005 auf ihre Gültigkeit hin überprüft. Die vier theoretischen Kernmodule (Abstracting, Indexieren, Klassifikationen, Thesauri) werden von Übungsbeispielen flankiert, wie ich sie so oder so ähnlich in der Lehre am IID eingesetzt habe. Sie sind mit exemplarischen Lösungsvorschlägen versehen. Dabei versteht es sich von selbst, daß diese Vorschläge nur einige wenige von vielen möglichen darstellen. Mein Dank für das Zustandekommen dieser Publikation gilt zunächst den Teilnehmerinnen und Teilnehmer meiner Kurse am III). Sie haben mich durch ihre ermutigenden Rückmeldungen, ihre rege Beteiligung am Unterrichtsgeschehen und ihre kritischen Fragen immer wieder dazu motiviert, Lehrinhalte zu hinterfragen und zu präzisieren. Jutta Lindenthal hat mit wertvollen Anregungen zu diesem Buch beigetragen. Außerdem danke ich ihr für die immense Sorgfalt, Zeit und Geduld, die sie auf das Gegenlesen des Manuskripts verwandt hat, und vor allem für ihre Begeisterungsfähigkeit. Für die akribische Suche nach formalen Fehlern geht ein herzliches Dankeschön an meinen Vater. Mein Dank für Korrekturtätigkeiten gilt ferner Sabine Walz und Jan Dürrschnabel. Zum Schluß noch eine persönliche Anmerkung: Ich übernahm die Inhaltserschließung damals mit einer großen Portion Skepsis und in der Erwartung, es mit einer unendlich trockenen Materie zu tun zu bekommen. Je intensiver ich mich dann damit beschäftigte, desto größer wurde meine Begeisterung. Wenn ich meinen Lesern auch nur einen Funken davon vermitteln kann, dann wäre das für mich ein großer Erfolg.
    Classification
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2005) H.7, S.395-396 (M. Ockenfeld): "... Das Buch ist der z. Band in einer vom International Network for Terminology (TermNet), einer Gruppe von vierzehn Fachleuten der Terminologiearbeit aus acht Ländern, herausgegebenen Reihe. Ein Anliegen der Autorin, das sie in ihrem Vorwort formuliert, ist es denn auch "Licht in das terminologische Dunkel zu bringen", in das man beim intensiven Literaturstudium allzu leicht gerät, weil der faktische Sprachgebrauch häufig vom genormten abweicht und außerdem Bibliothekare, Dokumentare und Informationswissenschaftler Ausdrücke unterschiedlich gebrauchen. ... Der didaktisch gut aufbereitete Stoff wird sehr verständlich, präzise und mit spürbarer Begeisterung beschrieben. Doch das Buch ist auch wegen seiner sorgfältigen typographischen Gestaltung ein Lesevergnügen, vor allem für diejenigen, die die herkömmliche Rechtschreibung gewohnt sind. Es kann der angestrebten Zielgruppe, Teilnehmer und Lehrende von Hochschulstudiengängen im Bibliotheks-, Informations- und Dokumentationsbereich, als kompaktes Lehr- und Arbeitsbuch für die Grundlagen der Inhaltserschließung nachdrücklich empfohlen werden."
    Weitere Rez. in: Mitt VÖB 59(2006) H.1, S.63-66 (O. Oberhauser); BuB 58(2006) H.4, S.344-345 (H. Wiesenmüller): " ... Um die Sacherschließung ist es dagegen merkwürdig still geworden. Vielerorts wird sie - so scheint es zumindest der Rezensentin - inzwischen primär als Kostenfaktor wahrgenommen. Neue, als wichtiger empfundene Aufgaben (namentlich die Vermittlung von Informationskompetenz) lassen sie mehr und mehr in den Hintergrund treten. Auch der Entschluss Der Deutschen Bibliothek, verstärkt auf klassifikatorische Erschließung mit Dewey's Decimal Classification (DDC) zu setzen, hat keine breite Grundsatzdiskussion angestoßen; die Neuerung wird bisher nahezu ausschließlich unter dem Aspekt wegfallender Fremddaten bei den Schlagwortketten betrachtet. Unter Bibliothekaren ist das Interesse an der Sacherschließung derzeit also eher gering ... Es wäre gut, wenn künftig wieder mehr über Sacherschließung nachgedacht und geredet würde. Das nötige Grundlagenwissen für eine qualifizierte Diskussion kann der hier vorgestellte Band vermitteln. Er sei deshalb sowohl denen ans Herz gelegt, die sich für inhaltliche Erschließung interessieren, als auch jenen, die dies bisher (noch) nicht tun."
    RVK
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
  17. Fugmann, R.: Inhaltserschließung durch Indexieren : Prinzipien und Praxis (1999) 0.02
    0.017830897 = product of:
      0.09509812 = sum of:
        0.029502042 = weight(_text_:und in 715) [ClassicSimilarity], result of:
          0.029502042 = score(doc=715,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4407773 = fieldWeight in 715, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=715)
        0.029502042 = weight(_text_:und in 715) [ClassicSimilarity], result of:
          0.029502042 = score(doc=715,freq=18.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4407773 = fieldWeight in 715, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=715)
        0.03609404 = weight(_text_:als in 715) [ClassicSimilarity], result of:
          0.03609404 = score(doc=715,freq=6.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.37045088 = fieldWeight in 715, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.046875 = fieldNorm(doc=715)
      0.1875 = coord(3/16)
    
    Abstract
    Das Buch ist ein umfassendes Kompendium der Inhaltserschließung. Es informiert gleichermaßen kompetent über theoretische Grundlagen und Methoden der inhaltlichen Erschließung wie auch über die im praktischen Einsatz auftretenden Probleme der Fragen und zeigt Wege zu ihrer Lösung auf. Der Wert eines Thesaurus als Basis geordneten Wissens wird ebenso behandelt wie verschiedene Arten klassifikatorischer Systeme und ihre Handhabung beim Aufbau von Datenbanken und Dokumentationen. Indexierungspraxis und ihre Auswirkung auf die Qualität der Dokumentation und die späteren Retrievalmöglichkeiten werden in einer leichtnachvollziehbaren, aus gründlicher Überlegung und intensiver praktischer Erfahrung rührenden Form vermittelt. Das Buch eignet sich gleichermaßen als Lehrbuch an Hochschulen wie auch als Nachschlagewerk, Ratgeber und Entscheidungshilfe in der praktischen Arbeit, wozu auch das ungewöhnlich ausführliche Register beiträgt
  18. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2000) 0.02
    0.017829735 = product of:
      0.095091924 = sum of:
        0.030354746 = weight(_text_:und in 1082) [ClassicSimilarity], result of:
          0.030354746 = score(doc=1082,freq=14.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4535172 = fieldWeight in 1082, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
        0.030354746 = weight(_text_:und in 1082) [ClassicSimilarity], result of:
          0.030354746 = score(doc=1082,freq=14.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.4535172 = fieldWeight in 1082, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
        0.034382436 = weight(_text_:als in 1082) [ClassicSimilarity], result of:
          0.034382436 = score(doc=1082,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.35288385 = fieldWeight in 1082, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1082)
      0.1875 = coord(3/16)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält neben zahlreichen Obungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit den dazugehörigen Antworten. Das Buch ist von Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden dritten Auflage wurden Korrekturen und Aktualisierungen vorgenommen
  19. Henzler, R.G.: Information und Dokumentation : Sammeln, Speichern und Wiedergewinnen von Fachinformation in Datenbanken (1992) 0.02
    0.017464034 = product of:
      0.09314152 = sum of:
        0.030043406 = weight(_text_:und in 4839) [ClassicSimilarity], result of:
          0.030043406 = score(doc=4839,freq=42.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.44886562 = fieldWeight in 4839, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4839)
        0.033054706 = weight(_text_:technik in 4839) [ClassicSimilarity], result of:
          0.033054706 = score(doc=4839,freq=2.0), product of:
            0.15028988 = queryWeight, product of:
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.030198902 = queryNorm
            0.21993968 = fieldWeight in 4839, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.976667 = idf(docFreq=828, maxDocs=44218)
              0.03125 = fieldNorm(doc=4839)
        0.030043406 = weight(_text_:und in 4839) [ClassicSimilarity], result of:
          0.030043406 = score(doc=4839,freq=42.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.44886562 = fieldWeight in 4839, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4839)
      0.1875 = coord(3/16)
    
    Abstract
    Die von Dokumentaren geleistete Vermittlung von Informationen zwischen externen Systemen und internem Bedarf, aber auch umgekehrt, zwischen intern verfügbarem Wissen und von außen herangetragenen Wünschen, wird durch die zunehmende Verflechtung vieler Firmen und Institutionen miteinander immer wichtiger. Dieses Lehrbuch behandelt traditionelle und moderne Formen der Informationsaufbereitung für Datenbanken und Wissensspeicher, die alle Aspekte der Dokumentationspraxis umfassen. Es ist ein Leitfaden für Studenten aller mit Dokumentation befaßten Fachrichtungen, z.B. Bibliothekare, Archivare, Buchhändler, sowie aller Fachrichtungen, in denen Datenbankrecherchen durchgeführt werden. Die aktuelle Darstellung der für die Recherchen und Informationsvermittlung wichtigen Dokumentationsszene und -technik ist auch für Praktiker interessant.
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    AN 92550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    RSWK
    Information und Dokumentation
    Information und Dokumentation / Datenbank (BVB)
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    AN 92550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    Subject
    Information und Dokumentation
    Information und Dokumentation / Datenbank (BVB)
  20. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.02
    0.017275626 = product of:
      0.09213667 = sum of:
        0.033788897 = weight(_text_:und in 4524) [ClassicSimilarity], result of:
          0.033788897 = score(doc=4524,freq=34.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.50482535 = fieldWeight in 4524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4524)
        0.033788897 = weight(_text_:und in 4524) [ClassicSimilarity], result of:
          0.033788897 = score(doc=4524,freq=34.0), product of:
            0.06693185 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.030198902 = queryNorm
            0.50482535 = fieldWeight in 4524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4524)
        0.024558881 = weight(_text_:als in 4524) [ClassicSimilarity], result of:
          0.024558881 = score(doc=4524,freq=4.0), product of:
            0.097432725 = queryWeight, product of:
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.030198902 = queryNorm
            0.25205988 = fieldWeight in 4524, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2263665 = idf(docFreq=4771, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4524)
      0.1875 = coord(3/16)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.

Years

Languages

  • d 80
  • e 33

Types

  • m 96
  • a 11
  • s 5
  • el 4
  • h 1
  • x 1
  • More… Less…

Subjects

Classifications