Search (32 results, page 1 of 2)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.07
    0.07157264 = product of:
      0.14314528 = sum of:
        0.14314528 = sum of:
          0.11561466 = weight(_text_:indexieren in 1767) [ClassicSimilarity], result of:
            0.11561466 = score(doc=1767,freq=6.0), product of:
              0.27699634 = queryWeight, product of:
                5.45272 = idf(docFreq=514, maxDocs=44218)
                0.05079966 = queryNorm
              0.41738695 = fieldWeight in 1767, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.45272 = idf(docFreq=514, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
          0.027530612 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
            0.027530612 = score(doc=1767,freq=2.0), product of:
              0.17789176 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05079966 = queryNorm
              0.15476047 = fieldWeight in 1767, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1767)
      0.5 = coord(1/2)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
    Theme
    Automatisches Indexieren
  2. Salton, G.; McGill, M. J.: Introduction to modern information retrieval (1983) 0.07
    0.066750154 = product of:
      0.13350031 = sum of:
        0.13350031 = product of:
          0.26700062 = sum of:
            0.26700062 = weight(_text_:indexieren in 2328) [ClassicSimilarity], result of:
              0.26700062 = score(doc=2328,freq=2.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.96391386 = fieldWeight in 2328, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.125 = fieldNorm(doc=2328)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Automatisches Indexieren
  3. Fugmann, R.: Theoretische Grundlagen der Indexierungspraxis (1992) 0.07
    0.066750154 = product of:
      0.13350031 = sum of:
        0.13350031 = product of:
          0.26700062 = sum of:
            0.26700062 = weight(_text_:indexieren in 319) [ClassicSimilarity], result of:
              0.26700062 = score(doc=319,freq=8.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.96391386 = fieldWeight in 319, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.0625 = fieldNorm(doc=319)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    Bib D 87 / Indexieren
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    SBB
    Bib D 87 / Indexieren
  4. Salton, G.; McGill, M. J.: Information Retrieval: Grundlegendes für Informationswissenschaftler (1987) 0.06
    0.05899936 = product of:
      0.11799872 = sum of:
        0.11799872 = product of:
          0.23599744 = sum of:
            0.23599744 = weight(_text_:indexieren in 8648) [ClassicSimilarity], result of:
              0.23599744 = score(doc=8648,freq=4.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.85198754 = fieldWeight in 8648, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.078125 = fieldNorm(doc=8648)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Enthält die Kapitel: Information Retrieval: eine Einführung; Invertierte Dateisysteme; Textanalyse und automatisches Indexieren; Die experimentellen Retrievalsysteme SMART und SIRE; Die Bewertung von Retrievalsystemen; Fortgeschrittene Retrievaltechniken; Verarbeitung natürlicher Sprache; Informationstechnologie: Hardware und Software; Datenbankmanagementsysteme; Zukünftige Entwicklungen im Information Retrieval
    Theme
    Automatisches Indexieren
  5. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.03
    0.02949968 = product of:
      0.05899936 = sum of:
        0.05899936 = product of:
          0.11799872 = sum of:
            0.11799872 = weight(_text_:indexieren in 3923) [ClassicSimilarity], result of:
              0.11799872 = score(doc=3923,freq=4.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.42599377 = fieldWeight in 3923, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3923)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    RVK
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  6. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.03
    0.02949968 = product of:
      0.05899936 = sum of:
        0.05899936 = product of:
          0.11799872 = sum of:
            0.11799872 = weight(_text_:indexieren in 2550) [ClassicSimilarity], result of:
              0.11799872 = score(doc=2550,freq=4.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.42599377 = fieldWeight in 2550, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2550)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch vermittelt Kenntnisse über die Modellierung dokumentbezogener Metadaten durch praktische Aufgabenstellungen, begleitende theoretische Erläuterungen sowie ergänzende Übungen. Als Beispiele dienen Bilddokumente und bibliografische Daten. Es wird vermittelt, wie entsprechende Datenbanken aufgebaut und mit geeigneten Suchumgebungen ausgestattet werden. Es wird dargestellt und praktisch geübt, wie Kenntnisse über die Struktur der Daten zum Import von Fremddaten genutzt werden können. Zielvorstellung ist der Aufbau von Datenbanken zur formalen und inhaltlichen Erschließung und die Gestaltung von Retrievalumgebungen, für bibliografische Daten auch die Erstellung von Bibliografien. Als Methoden zur inhaltlichen Erschließung werden besonders die semantische Strukturierung von Themenfeldern am Beispiel des aspektorientierten Thesaurus-Konzepts und das Automatische Indexieren bibliografischer Daten behandelt. Abgerundet wird die Darstellung durch die Diskussion von Bezügen zum Aufbau relationaler Datenbanken für bibliografische Daten sowie Hintergründe der Zeichencodierung und Ordnungsfragen.
  7. Booth, P.F.: Indexing : the manual of good practice (2001) 0.03
    0.027673153 = product of:
      0.055346306 = sum of:
        0.055346306 = product of:
          0.11069261 = sum of:
            0.11069261 = weight(_text_:indexieren in 1968) [ClassicSimilarity], result of:
              0.11069261 = score(doc=1968,freq=22.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.39961758 = fieldWeight in 1968, product of:
                  4.690416 = tf(freq=22.0), with freq of:
                    22.0 = termFreq=22.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1968)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
  8. Fugmann, R.: Inhaltserschließung durch Indexieren : Prinzipien und Praxis (1999) 0.03
    0.025031308 = product of:
      0.050062615 = sum of:
        0.050062615 = product of:
          0.10012523 = sum of:
            0.10012523 = weight(_text_:indexieren in 715) [ClassicSimilarity], result of:
              0.10012523 = score(doc=715,freq=2.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.3614677 = fieldWeight in 715, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.046875 = fieldNorm(doc=715)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  9. Chan, L.M.; Mitchell, J.S.: Dewey Decimal Classification : principles and applications (2003) 0.02
    0.024089284 = product of:
      0.04817857 = sum of:
        0.04817857 = product of:
          0.09635714 = sum of:
            0.09635714 = weight(_text_:22 in 3247) [ClassicSimilarity], result of:
              0.09635714 = score(doc=3247,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.5416616 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3247)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    DDC-22
  10. Kaiser, U.: Handbuch Internet und Online Dienste : der kompetente Reiseführer für das digitale Netz (1996) 0.02
    0.020647958 = product of:
      0.041295916 = sum of:
        0.041295916 = product of:
          0.08259183 = sum of:
            0.08259183 = weight(_text_:22 in 4589) [ClassicSimilarity], result of:
              0.08259183 = score(doc=4589,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.46428138 = fieldWeight in 4589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4589)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Series
    Heyne Business; 22/1019
  11. Kumar, K.: Theory of classification (1989) 0.02
    0.020647958 = product of:
      0.041295916 = sum of:
        0.041295916 = product of:
          0.08259183 = sum of:
            0.08259183 = weight(_text_:22 in 6774) [ClassicSimilarity], result of:
              0.08259183 = score(doc=6774,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.46428138 = fieldWeight in 6774, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6774)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    25. 3.2019 18:15:22
  12. Langridge, D.W.: Classification: its kinds, systems, elements and application (1992) 0.02
    0.019467082 = product of:
      0.038934164 = sum of:
        0.038934164 = product of:
          0.07786833 = sum of:
            0.07786833 = weight(_text_:22 in 770) [ClassicSimilarity], result of:
              0.07786833 = score(doc=770,freq=4.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.4377287 = fieldWeight in 770, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=770)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    26. 7.2002 14:01:22
    Footnote
    Rez. in: Journal of documentation 49(1993) no.1, S.68-70. (A. Maltby); Journal of librarianship and information science 1993, S.108-109 (A.G. Curwen); Herald of library science 33(1994) nos.1/2, S.85 (P.N. Kaula); Knowledge organization 22(1995) no.1, S.45 (M.P. Satija)
  13. Kaushik, S.K.: DDC 22 : a practical approach (2004) 0.02
    0.018209789 = product of:
      0.036419578 = sum of:
        0.036419578 = product of:
          0.072839156 = sum of:
            0.072839156 = weight(_text_:22 in 1842) [ClassicSimilarity], result of:
              0.072839156 = score(doc=1842,freq=14.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.4094577 = fieldWeight in 1842, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1842)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    A system of library classification that flashed across the inquiring mind of young Melvil Louis Kossuth Dewey (known as Melvil Dewey) in 1873 is still the most popular classification scheme.. The modern library classification begins with Dewey Decimal Classification (DDC). Melvil Dewey devised DDC in 1876. DDC has is credit of 128 years of boudless success. The DDC is being taught as a practical subject throughout the world and it is being used in majority of libraries in about 150 countries. This is the result of continuous revision that 22nd Edition of DDC has been published in July 2003. No other classification scheme has published so many editions. Some welcome changes have been made in DDC 22. To reduce the Christian bias in 200 religion, the numbers 201 to 209 have been devoted to specific aspects of religion. In the previous editions these numbers were devoted to Christianity. to enhance the classifier's efficiency, Table 7 has been removed from DDC 22 and the provision of adding group of persons is made by direct use of notation already available in schedules and in notation -08 from Table 1 Standard Subdivision. The present book is an attempt to explain, with suitable examples, the salient provisions of DDC 22. The book is written in simple language so that the students may not face any difficulty in understanding what is being explained. The examples in the book are explained in a step-by-step procedure. It is hoped that this book will prove of great help and use to the library professionals in general and library and information science students in particular.
    Content
    1. Introduction to DDC 22 2. Major changes in DDC 22 3. Introduction to the schedules 4. Use of Table 1 : Standard Subdivisions 5. Use of Table 2 : Areas 6. Use of Table 3 : Subdivisions for the arts, for individual literatures, for specific literary forms 7. Use to Table 4 : Subdivisions of individual languages and language families 8. Use of Table 5 : Ethic and National groups 9. Use of Table 6 : Languages 10. Treatment of Groups of Persons
    Object
    DDC-22
  14. Dahlberg, I.: Grundlagen universaler Wissensordnung : Probleme und Möglichkeiten eines universalen Klassifikationssystems des Wissens (1974) 0.02
    0.017206633 = product of:
      0.034413267 = sum of:
        0.034413267 = product of:
          0.068826534 = sum of:
            0.068826534 = weight(_text_:22 in 127) [ClassicSimilarity], result of:
              0.068826534 = score(doc=127,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.38690117 = fieldWeight in 127, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=127)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Zugleich Dissertation Univ. Düsseldorf. - Rez. in: ZfBB. 22(1975) S.53-57 (H.-A. Koch)
  15. Gralla, P.: So funktioniert das Internet : ein visueller Streifzug durch das Internet (1998) 0.02
    0.017206633 = product of:
      0.034413267 = sum of:
        0.034413267 = product of:
          0.068826534 = sum of:
            0.068826534 = weight(_text_:22 in 667) [ClassicSimilarity], result of:
              0.068826534 = score(doc=667,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.38690117 = fieldWeight in 667, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=667)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    15. 7.2002 20:48:22
  16. Babiak, U.: Effektive Suche im Internet : Suchstrategien, Methoden, Quellen (1998) 0.02
    0.017206633 = product of:
      0.034413267 = sum of:
        0.034413267 = product of:
          0.068826534 = sum of:
            0.068826534 = weight(_text_:22 in 668) [ClassicSimilarity], result of:
              0.068826534 = score(doc=668,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.38690117 = fieldWeight in 668, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=668)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Signature
    77 TWP 3911(2)+22
  17. Marcella, R.; Newton, R.: ¬A new manual of classification (1994) 0.02
    0.017206633 = product of:
      0.034413267 = sum of:
        0.034413267 = product of:
          0.068826534 = sum of:
            0.068826534 = weight(_text_:22 in 885) [ClassicSimilarity], result of:
              0.068826534 = score(doc=885,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.38690117 = fieldWeight in 885, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=885)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Knowledge organization 22(1995) no.3/4, S.178-179 (M.P. Satija); Journal of documentation 51(1995) no.4, S.437-439 (R. Brunt)
  18. Scott, M.L.: Dewey Decimal Classification, 22nd edition : a study manual and number building guide (2005) 0.02
    0.017206633 = product of:
      0.034413267 = sum of:
        0.034413267 = product of:
          0.068826534 = sum of:
            0.068826534 = weight(_text_:22 in 4594) [ClassicSimilarity], result of:
              0.068826534 = score(doc=4594,freq=2.0), product of:
                0.17789176 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05079966 = queryNorm
                0.38690117 = fieldWeight in 4594, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4594)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Object
    DDC-22
  19. Grundlagen der praktischen Information und Dokumentation : Ein Handbuch zur Einführung in die fachliche Informationsarbeit (1997) 0.02
    0.016687538 = product of:
      0.033375077 = sum of:
        0.033375077 = product of:
          0.066750154 = sum of:
            0.066750154 = weight(_text_:indexieren in 2678) [ClassicSimilarity], result of:
              0.066750154 = score(doc=2678,freq=2.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.24097846 = fieldWeight in 2678, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2678)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    SEEGER, T.: Grundbegriffe der Information und Dokumentation; MANECKE, H.-J u. T. SEEGER: Zur Entwicklung der Information und Dokumentation in Deutschland; KRISCHKER, U.: Formale Analyse von Dokumenten; KUHLEN, R.: Abstracts - Abstracting: Intellektuelle und maschinelle Verfahren; KNORZ, G.: Indexieren, Klassieren, Extrahieren; MANECKE, H.-J.: Klassifikation; BURKART, M.: Thesaurus; REIMER, U.: Neue Formen der Wissensrepräsentation; LAUX, W.: Speicherung; HENNINGS, R.-D.: Komponenten zur Wissensverarbeitung in Informationssystemen; ZIMMERMANN, H.H.: Maschinelle Übersetzung; OCKENFELD, M.: Klassische Informationsdienste; KIND, J.: Online-Dienste; WEIGEND, A.: Wirtschaftsdatenbanken; STAUD, J.L.: Statistische Informationen; MAHNKOPF, P.: Endkundensysteme in T-Online - Datex-J - Btx; KUHLEN; R.: Hypertext; LEHNHOF, F.: Die CD-ROM-Technologie; HAMACHER, B.: Bürokommunikation; BÖHLE, K.: Elektronisches Publizieren; OßWALD, A.: Electronic Document Delivery; SCHMIDT, R.: Funktionale Informationsdienste; LAUX, W.: Bibliographische (Literatur-) Informationssysteme; MENNE-HARITZ, A.: Schriftgutverwaltung und Archivierung; ENGLERT, M.: Pressedokumentation; LEENINGS, A.: Audiovisuelle Materialien; SCHRAMM, R.: Patentinformation; MARSCALL, H.-W.: Technische Regeln als Quellen wissenschaftlich-technischer Fachinformation; STAUD, J.L.: Wirtschaftsinformation; LÜSTORFF, J.: Chemie-Information; HARMS, M.: Medieninformation: Informationsversorgung in den ABD-Bereichen der Rundfunkanstalten; WALTER, N.: Information als Ressource in der Kreditwirtschaft; LÖNS, K.: Computer-Hardware, Betriebssysteme; REINICKE, W. u. J. SCHWANDT: Software für Information und Dokumentation; KNORZ, G.: Datenbank-Entwurfsmethoden; KRAUSE, J.: Softwareergonomie; LÖNS, K.: Kommunikationsnetze und Datenkommunikation; SCHWINDLING, A.: Zugang zur Information für blinde und sehbehinderte Menschen: Technische Voraussetzungen. Ein Überblick; SCHWUCHOW, W.: Informationsökonomie; HERGET, J.: Informationsmanagement; KLUCK, M.: Methoden der Informationsanalyse: eine Einführung in die empirischen Methoden der Informationsbedarfsanalyse und der Markt- und Benutzerforschung; GRUDOWSKI, S.: Marketing für die Informationsvermittlung; SEEGER, T.: Informationspolitik - IuD-Politik - Fachinformationspolitik; GOEBEL, J.W.: Rechtsfragen der Informationswirtschaft; BAXMANN-KRAFT, E.-M. u. E. LECHNER: Normung im Bereich Information und Dokumentation: SEEGER, T.: Zum Stand der Professionalisierung: Beruf und Ausbildung in Deutschland; HENRICHS, N.: Informationswissenschaft; BURNELEIT, H.-D., R. CAPURRO, W. REHFELD, W. WISSMANN u. G. WERSIG: Reisen wir auf den Datenautobahnen in eine neue (Un-)Gewißheit?; WERSIG, G.: Der Weg in die Informationsgesellschaft; CAPURRO, R.: Ethik im Cyberspace; BURNELEIT, H.-D.: Elektronische Medien und Verlagswesen; THÜRING, M.: Auf dem Weg in die Informationsgesellschaft: Trends und Entwicklungen des multimedialen Informations- und Telekommunikationsmarktes; RIEHM, U.: Informationsinfrastruktur; WISSMANN, W.: Vernetzte Formen der Arbeitsorganisation: heute und morgen
  20. Bertram, J.: Einführung in die inhaltliche Erschließung : Grundlagen - Methoden - Instrumente (2005) 0.02
    0.016687538 = product of:
      0.033375077 = sum of:
        0.033375077 = product of:
          0.066750154 = sum of:
            0.066750154 = weight(_text_:indexieren in 210) [ClassicSimilarity], result of:
              0.066750154 = score(doc=210,freq=8.0), product of:
                0.27699634 = queryWeight, product of:
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.05079966 = queryNorm
                0.24097846 = fieldWeight in 210, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.45272 = idf(docFreq=514, maxDocs=44218)
                  0.015625 = fieldNorm(doc=210)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Buch beginnt mit einem Überblick über die wesentlichen Themen der Inhaltserschließung (Kap. 1). Es führt in die zentrale Problemstellung ein, die sich an die Dualität zwischen Begriffen und Bezeichnungen knüpft (Kap. 2). Danach stehen die Methoden der Inhaltserschließung im Vordergrund: Das Abstracting (Kap. 3), das Indexieren (Kap. 4) und automatische Verfahren der Inhaltserschließung (Kap. 5). Für diese Methoden werden jeweils Arbeitschritte und Qualitätskriterien benannt und es werden typologische Unterteilungen vorgenommen. Ein weiteres Kapitel ist einem häufig vernachlässigtem Produkt inhaltserschließender Tätigkeit gewidmet, dem Register (Kap. 6). Mit Dokumentationssprachen kommen dann wichtige Erschließungsinstrumente zu Wort. Nach einem Überblick (Kap. 7) geht es um ihre beiden Ausprägungen, nämlich um Klassifikationen (Kap. 8-10) und um Thesauri (Kap. 11-12). Sie werden vor allem unter dem Aspekt ihrer Erstellung thematisiert. Zudem werden Qualitätskriterien und typologische Ausformungen angesprochen. Nach einem zusammenfassenden Vergleich von Dokumentationssprachen (Kap. 13) wird mit dem Internet schließlich exemplarisch ein Anwendungsbereich vorgestellt. Dabei geht es zunächst um die Erschließung von Internetquellen ganz allgemein (Kap. 14) und dann besonders um diejenige von Fachinformationsquellen (Kap. 15). Jedes Kapitel beginnt mit einem Überblick über die wesentlichen Inhalte und die zugrunde liegende Literatur und endet mit ausgewählten bibliographischen Angaben. Diese sind gegebenenfalls mit Hinweisen auf Rezensionen versehen. Die Gesamtheit der zitierten Literatur findet sich im abschließenden Literaturverzeichnis. Grundlegende Begriffe sind gesperrt kursiv, Beispiele und Eigennamen einfach kursiv gesetzt, Pfeile (->) stellen stets Verweise auf Abbildungen oder Tabellen dar. Die angeführten Internetquellen wurden zuletzt am 11-2-2005 auf ihre Gültigkeit hin überprüft. Die vier theoretischen Kernmodule (Abstracting, Indexieren, Klassifikationen, Thesauri) werden von Übungsbeispielen flankiert, wie ich sie so oder so ähnlich in der Lehre am IID eingesetzt habe. Sie sind mit exemplarischen Lösungsvorschlägen versehen. Dabei versteht es sich von selbst, daß diese Vorschläge nur einige wenige von vielen möglichen darstellen. Mein Dank für das Zustandekommen dieser Publikation gilt zunächst den Teilnehmerinnen und Teilnehmer meiner Kurse am III). Sie haben mich durch ihre ermutigenden Rückmeldungen, ihre rege Beteiligung am Unterrichtsgeschehen und ihre kritischen Fragen immer wieder dazu motiviert, Lehrinhalte zu hinterfragen und zu präzisieren. Jutta Lindenthal hat mit wertvollen Anregungen zu diesem Buch beigetragen. Außerdem danke ich ihr für die immense Sorgfalt, Zeit und Geduld, die sie auf das Gegenlesen des Manuskripts verwandt hat, und vor allem für ihre Begeisterungsfähigkeit. Für die akribische Suche nach formalen Fehlern geht ein herzliches Dankeschön an meinen Vater. Mein Dank für Korrekturtätigkeiten gilt ferner Sabine Walz und Jan Dürrschnabel. Zum Schluß noch eine persönliche Anmerkung: Ich übernahm die Inhaltserschließung damals mit einer großen Portion Skepsis und in der Erwartung, es mit einer unendlich trockenen Materie zu tun zu bekommen. Je intensiver ich mich dann damit beschäftigte, desto größer wurde meine Begeisterung. Wenn ich meinen Lesern auch nur einen Funken davon vermitteln kann, dann wäre das für mich ein großer Erfolg.
    RSWK
    Repräsentationsform / Erschließungskonzepte / Kommunikation / Abstracting / Indexieren / Inhaltserschließung / Ordnungsprinzipien / Klassifikationen / Notationen / Thesauri / Dokumentationssprachen / Internetquellen / Fachinformationsdienste (ÖVK)
    Subject
    Repräsentationsform / Erschließungskonzepte / Kommunikation / Abstracting / Indexieren / Inhaltserschließung / Ordnungsprinzipien / Klassifikationen / Notationen / Thesauri / Dokumentationssprachen / Internetquellen / Fachinformationsdienste (ÖVK)

Years

Languages

  • d 18
  • e 14

Types

  • m 30
  • s 2
  • a 1
  • el 1
  • More… Less…