Search (35 results, page 1 of 2)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Nohr, H.: Grundlagen der automatischen Indexierung : ein Lehrbuch (2003) 0.08
    0.07658472 = product of:
      0.15316944 = sum of:
        0.14964981 = weight(_text_:indexierung in 1767) [ClassicSimilarity], result of:
          0.14964981 = score(doc=1767,freq=26.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.8569411 = fieldWeight in 1767, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03125 = fieldNorm(doc=1767)
        0.0035196214 = product of:
          0.017598107 = sum of:
            0.017598107 = weight(_text_:22 in 1767) [ClassicSimilarity], result of:
              0.017598107 = score(doc=1767,freq=2.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.15476047 = fieldWeight in 1767, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1767)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Date
    22. 6.2009 12:46:51
    Footnote
    Rez. in: nfd 54(2003) H.5, S.314 (W. Ratzek): "Um entscheidungsrelevante Daten aus der ständig wachsenden Flut von mehr oder weniger relevanten Dokumenten zu extrahieren, müssen Unternehmen, öffentliche Verwaltung oder Einrichtungen der Fachinformation effektive und effiziente Filtersysteme entwickeln, einsetzen und pflegen. Das vorliegende Lehrbuch von Holger Nohr bietet erstmalig eine grundlegende Einführung in das Thema "automatische Indexierung". Denn: "Wie man Information sammelt, verwaltet und verwendet, wird darüber entscheiden, ob man zu den Gewinnern oder Verlierern gehört" (Bill Gates), heißt es einleitend. Im ersten Kapitel "Einleitung" stehen die Grundlagen im Mittelpunkt. Die Zusammenhänge zwischen Dokumenten-Management-Systeme, Information Retrieval und Indexierung für Planungs-, Entscheidungs- oder Innovationsprozesse, sowohl in Profit- als auch Non-Profit-Organisationen werden beschrieben. Am Ende des einleitenden Kapitels geht Nohr auf die Diskussion um die intellektuelle und automatische Indexierung ein und leitet damit über zum zweiten Kapitel "automatisches Indexieren. Hier geht der Autor überblickartig unter anderem ein auf - Probleme der automatischen Sprachverarbeitung und Indexierung - verschiedene Verfahren der automatischen Indexierung z.B. einfache Stichwortextraktion / Volltextinvertierung, - statistische Verfahren, Pattern-Matching-Verfahren. Die "Verfahren der automatischen Indexierung" behandelt Nohr dann vertiefend und mit vielen Beispielen versehen im umfangreichsten dritten Kapitel. Das vierte Kapitel "Keyphrase Extraction" nimmt eine Passpartout-Status ein: "Eine Zwischenstufe auf dem Weg von der automatischen Indexierung hin zur automatischen Generierung textueller Zusammenfassungen (Automatic Text Summarization) stellen Ansätze dar, die Schlüsselphrasen aus Dokumenten extrahieren (Keyphrase Extraction). Die Grenzen zwischen den automatischen Verfahren der Indexierung und denen des Text Summarization sind fließend." (S. 91). Am Beispiel NCR"s Extractor/Copernic Summarizer beschreibt Nohr die Funktionsweise.
    Im fünften Kapitel "Information Extraction" geht Nohr auf eine Problemstellung ein, die in der Fachwelt eine noch stärkere Betonung verdiente: "Die stetig ansteigende Zahl elektronischer Dokumente macht neben einer automatischen Erschließung auch eine automatische Gewinnung der relevanten Informationen aus diesen Dokumenten wünschenswert, um diese z.B. für weitere Bearbeitungen oder Auswertungen in betriebliche Informationssysteme übernehmen zu können." (S. 103) "Indexierung und Retrievalverfahren" als voneinander abhängige Verfahren werden im sechsten Kapitel behandelt. Hier stehen Relevance Ranking und Relevance Feedback sowie die Anwendung informationslinguistischer Verfahren in der Recherche im Mittelpunkt. Die "Evaluation automatischer Indexierung" setzt den thematischen Schlusspunkt. Hier geht es vor allem um die Oualität einer Indexierung, um gängige Retrievalmaße in Retrievaltest und deren Einssatz. Weiterhin ist hervorzuheben, dass jedes Kapitel durch die Vorgabe von Lernzielen eingeleitet wird und zu den jeweiligen Kapiteln (im hinteren Teil des Buches) einige Kontrollfragen gestellt werden. Die sehr zahlreichen Beispiele aus der Praxis, ein Abkürzungsverzeichnis und ein Sachregister erhöhen den Nutzwert des Buches. Die Lektüre förderte beim Rezensenten das Verständnis für die Zusammenhänge von BID-Handwerkzeug, Wirtschaftsinformatik (insbesondere Data Warehousing) und Künstlicher Intelligenz. Die "Grundlagen der automatischen Indexierung" sollte auch in den bibliothekarischen Studiengängen zur Pflichtlektüre gehören. Holger Nohrs Lehrbuch ist auch für den BID-Profi geeignet, um die mehr oder weniger fundierten Kenntnisse auf dem Gebiet "automatisches Indexieren" schnell, leicht verständlich und informativ aufzufrischen."
  2. Stock, W.G.: Qualitätskriterien von Suchmaschinen : Checkliste für Retrievalsysteme (2000) 0.04
    0.03888569 = product of:
      0.07777138 = sum of:
        0.07337185 = weight(_text_:indexierung in 5773) [ClassicSimilarity], result of:
          0.07337185 = score(doc=5773,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.42014992 = fieldWeight in 5773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5773)
        0.004399527 = product of:
          0.021997634 = sum of:
            0.021997634 = weight(_text_:22 in 5773) [ClassicSimilarity], result of:
              0.021997634 = score(doc=5773,freq=2.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.19345059 = fieldWeight in 5773, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5773)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen im World Wide Web wird nachgesagt, dass sie - insbesondere im Vergleich zur Retrievalsoftware kommerzieller Online-Archive suboptimale Methoden und Werkzeuge einsetzen. Elaborierte befehlsorientierte Retrievalsysteme sind vom Laien gar nicht und vom Professional nur dann zu bedienen, wenn man stets damit arbeitet. Die Suchsysteme einiger "independents", also isolierter Informationsproduzenten im Internet, zeichnen sich durch einen Minimalismus aus, der an den Befehlsumfang anfangs der 70er Jahre erinnert. Retrievalsoftware in Intranets, wenn sie denn überhaupt benutzt wird, setzt fast ausnahmslos auf automatische Methoden von Indexierung und Retrieval und ignoriert dabei nahezu vollständig dokumentarisches Know how. Suchmaschinen bzw. Retrievalsysteme - wir wollen beide Bezeichnungen synonym verwenden - bereiten demnach, egal wo sie vorkommen, Schwierigkeiten. An ihrer Qualität wird gezweifelt. Aber was heißt überhaupt: Qualität von Suchmaschinen? Was zeichnet ein gutes Retrievalsystem aus? Und was fehlt einem schlechten? Wir wollen eine Liste von Kriterien entwickeln, die für gutes Suchen (und Finden!) wesentlich sind. Es geht also ausschließlich um Quantität und Qualität der Suchoptionen, nicht um weitere Leistungsindikatoren wie Geschwindigkeit oder ergonomische Benutzerschnittstellen. Stillschweigend vorausgesetzt wirdjedoch der Abschied von ausschließlich befehlsorientierten Systemen, d.h. wir unterstellen Bildschirmgestaltungen, die die Befehle intuitiv einleuchtend darstellen. Unsere Checkliste enthält nur solche Optionen, die entweder (bei irgendwelchen Systemen) schon im Einsatz sind (und wiederholt damit zum Teil Altbekanntes) oder deren technische Realisierungsmöglichkeit bereits in experimentellen Umgebungen aufgezeigt worden ist. insofern ist die Liste eine Minimalforderung an Retrievalsysteme, die durchaus erweiterungsfähig ist. Gegliedert wird der Kriterienkatalog nach (1.) den Basisfunktionen zur Suche singulärer Datensätze, (2.) den informetrischen Funktionen zur Charakterisierunggewisser Nachweismengen sowie (3.) den Kriterien zur Mächtigkeit automatischer Indexierung und natürlichsprachiger Suche
    Source
    Password. 2000, H.5, S.22-31
  3. Cleveland, D.B.; Cleveland, A.D.: Introduction to abstracting and indexing (2001) 0.04
    0.036685925 = product of:
      0.1467437 = sum of:
        0.1467437 = weight(_text_:indexierung in 316) [ClassicSimilarity], result of:
          0.1467437 = score(doc=316,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.84029984 = fieldWeight in 316, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.078125 = fieldNorm(doc=316)
      0.25 = coord(1/4)
    
    RSWK
    Indexierung <Inhaltserschließung> (GBV)
    Subject
    Indexierung <Inhaltserschließung> (GBV)
  4. Cleveland, D.B.; Cleveland, A.D.: Introduction to abstracting and indexing (1990) 0.03
    0.029348742 = product of:
      0.11739497 = sum of:
        0.11739497 = weight(_text_:indexierung in 317) [ClassicSimilarity], result of:
          0.11739497 = score(doc=317,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.6722399 = fieldWeight in 317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=317)
      0.25 = coord(1/4)
    
    RSWK
    Indexierung <Inhaltserschließung> (GBV)
    Subject
    Indexierung <Inhaltserschließung> (GBV)
  5. Fugmann, R.: Theoretische Grundlagen der Indexierungspraxis (1992) 0.03
    0.029348742 = product of:
      0.11739497 = sum of:
        0.11739497 = weight(_text_:indexierung in 319) [ClassicSimilarity], result of:
          0.11739497 = score(doc=319,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.6722399 = fieldWeight in 319, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=319)
      0.25 = coord(1/4)
    
    RSWK
    Indexierung <Inhaltserschließung>
    Subject
    Indexierung <Inhaltserschließung>
  6. Fugmann, R.: Inhaltserschließung durch Indexieren : Prinzipien und Praxis (1999) 0.02
    0.022011558 = product of:
      0.08804623 = sum of:
        0.08804623 = weight(_text_:indexierung in 715) [ClassicSimilarity], result of:
          0.08804623 = score(doc=715,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.50417995 = fieldWeight in 715, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.046875 = fieldNorm(doc=715)
      0.25 = coord(1/4)
    
    RSWK
    Indexierung <Inhaltserschliessung>
    Subject
    Indexierung <Inhaltserschliessung>
  7. Buchanan, B.: Bibliothekarische Klassifikationstheorie (1989) 0.02
    0.020752694 = product of:
      0.08301078 = sum of:
        0.08301078 = weight(_text_:indexierung in 3921) [ClassicSimilarity], result of:
          0.08301078 = score(doc=3921,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.47534537 = fieldWeight in 3921, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=3921)
      0.25 = coord(1/4)
    
    Content
    Inhalt: Klassifikation: Definition und Einsatzmöglichkeiten - Die verschiedenen Arten von Klassenbeziehungen - Präkombinierte Klassifikationssysteme und Facettenklassifikationen - Methodische Überlegungen zur Lösung von Ordnungsproblemen - Konstruktion einer Facettenklassifikation, 1. Teil - Konstruktion einer Facettenklassifikation, 2. Teil - Gestaltung des Notationssystems, 1. Teil - Gestaltung des Notationssystems, 2. Teil - Gestaltung des Notationssystems, 3. Teil - Das alphabetische Sachregister - Universalklassifikationen - Kritische Anmerkungen zur systematischen Ordnung - Automatische Indexierung
  8. Hennings, R.-D.; Knorz, G.; Manecke, H.-J.; Reinicke, W.; Schwandt, J.: Wissensrepräsentation und Information Retrieval (1994) 0.02
    0.020752694 = product of:
      0.08301078 = sum of:
        0.08301078 = weight(_text_:indexierung in 4255) [ClassicSimilarity], result of:
          0.08301078 = score(doc=4255,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.47534537 = fieldWeight in 4255, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=4255)
      0.25 = coord(1/4)
    
    Content
    Enthält die Kapitel: Formale Erfassung (W. REINICKE); Inhaltliche Erschließung (W. REINICKE); Klassifikationssysteme und Klassieren (H.-J. MANECKE); Automatische Indexierung (G. KNORZ); Inhaltliche Erschließung in der Fakteninformation und -dokumentation (W. REINICKE); Wissensrepräsentation in wissensbasierten (Experten-)Systemen (R.-D. HENNINGS); Information-Retrieval (J. SCHWANDT)
  9. Wersig, G.: Thesaurus Leitfaden : eine Einführung in das Thesaurus-Prinzip in Theorie und Praxis (1985) 0.02
    0.020752694 = product of:
      0.08301078 = sum of:
        0.08301078 = weight(_text_:indexierung in 2068) [ClassicSimilarity], result of:
          0.08301078 = score(doc=2068,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.47534537 = fieldWeight in 2068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0625 = fieldNorm(doc=2068)
      0.25 = coord(1/4)
    
    Abstract
    Umfassendste deutsche Darstellung zum Thema 'Thesaurus' mit detaillierten Ausführungen zu den Grundsätzen der Erstellung eines Thesaurus und seiner Anwendung für die gleichordnende Indexierung. Enthält viele Beispiele.
  10. Gödert, W.; Lepsky, K.; Nagelschmidt, M.: Informationserschließung und Automatisches Indexieren : ein Lehr- und Arbeitsbuch (2011) 0.02
    0.018342962 = product of:
      0.07337185 = sum of:
        0.07337185 = weight(_text_:indexierung in 2550) [ClassicSimilarity], result of:
          0.07337185 = score(doc=2550,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.42014992 = fieldWeight in 2550, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2550)
      0.25 = coord(1/4)
    
    RSWK
    Automatische Indexierung
    Subject
    Automatische Indexierung
  11. Booth, P.F.: Indexing : the manual of good practice (2001) 0.01
    0.010376347 = product of:
      0.04150539 = sum of:
        0.04150539 = weight(_text_:indexierung in 1968) [ClassicSimilarity], result of:
          0.04150539 = score(doc=1968,freq=8.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.23767269 = fieldWeight in 1968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
      0.25 = coord(1/4)
    
    Footnote
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
  12. Oberhauser, O.: Automatisches Klassifizieren : Entwicklungsstand - Methodik - Anwendungsbereiche (2005) 0.01
    0.009171481 = product of:
      0.036685925 = sum of:
        0.036685925 = weight(_text_:indexierung in 38) [ClassicSimilarity], result of:
          0.036685925 = score(doc=38,freq=4.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.21007496 = fieldWeight in 38, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.01953125 = fieldNorm(doc=38)
      0.25 = coord(1/4)
    
    Footnote
    Zum Inhalt Auf einen kurzen einleitenden Abschnitt folgt eine Einführung in die grundlegende Methodik des automatischen Klassifizierens. Oberhauser erklärt hier Begriffe wie Einfach- und Mehrfachklassifizierung, Klassen- und Dokumentzentrierung, und geht danach auf die hauptsächlichen Anwendungen der automatischen Klassifikation von Textdokumenten, maschinelle Lernverfahren und Techniken der Dimensionsreduktion bei der Indexierung ein. Zwei weitere Unterkapitel sind der Erstellung von Klassifikatoren und den Methoden für deren Auswertung gewidmet. Das Kapitel wird abgerundet von einer kurzen Auflistung einiger Softwareprodukte für automatisches Klassifizieren, die sowohl kommerzielle Software, als auch Projekte aus dem Open-Source-Bereich umfasst. Der Hauptteil des Buches ist den großen Projekten zur automatischen Erschließung von Webdokumenten gewidmet, die von OCLC (Scorpion) sowie an den Universitäten Lund (Nordic WAIS/WWW, DESIRE II), Wolverhampton (WWLib-TOS, WWLib-TNG, Old ACE, ACE) und Oldenburg (GERHARD, GERHARD II) durchgeführt worden sind. Der Autor beschreibt hier sehr detailliert - wobei der Detailliertheitsgrad unterschiedlich ist, je nachdem, was aus der Projektdokumentation geschlossen werden kann - die jeweilige Zielsetzung des Projektes, die verwendete Klassifikation, die methodische Vorgehensweise sowie die Evaluierungsmethoden und -ergebnisse. Sofern Querverweise zu anderen Projekten bestehen, werden auch diese besprochen. Der Verfasser geht hier sehr genau auf wichtige Aspekte wie Vokabularbildung, Textaufbereitung und Gewichtung ein, so dass der Leser eine gute Vorstellung von den Ansätzen und der möglichen Weiterentwicklung des Projektes bekommt. In einem weiteren Kapitel wird auf einige kleinere Projekte eingegangen, die dem für Bibliotheken besonders interessanten Thema des automatischen Klassifizierens von Büchern sowie den Bereichen Patentliteratur, Mediendokumentation und dem Einsatz bei Informationsdiensten gewidmet sind. Die Darstellung wird ergänzt von einem Literaturverzeichnis mit über 250 Titeln zu den konkreten Projekten sowie einem Abkürzungs- und einem Abbildungsverzeichnis. In der abschließenden Diskussion der beschriebenen Projekte wird einerseits auf die Bedeutung der einzelnen Projekte für den methodischen Fortschritt eingegangen, andererseits aber auch einiges an Kritik geäußert, v. a. bezüglich der mangelnden Auswertung der Projektergebnisse und des Fehlens an brauchbarer Dokumentation. So waren z. B. die Projektseiten des Projekts GERHARD (www.gerhard.de/) auf den Stand von 1998 eingefroren, zurzeit [11.07.06] sind sie überhaupt nicht mehr erreichbar. Mit einigem Erstaunen stellt Oberhauser auch fest, dass - abgesehen von der fast 15 Jahre alten Untersuchung von Larsen - »keine signifikanten Studien oder Anwendungen aus dem Bibliotheksbereich vorliegen« (S. 139). Wie der Autor aber selbst ergänzend ausführt, dürfte dies daran liegen, dass sich bibliografische Metadaten wegen des geringen Textumfangs sehr schlecht für automatische Klassifikation eignen, und dass - wie frühere Ergebnisse gezeigt haben - das übliche TF/IDF-Verfahren nicht für Katalogisate geeignet ist (ibd.).
    Die am Anfang des Werkes gestellte Frage, ob »die Techniken des automatischen Klassifizierens heute bereits so weit [sind], dass damit grosse Mengen elektronischer Dokumente [-] zufrieden stellend erschlossen werden können? « (S. 13), beantwortet der Verfasser mit einem eindeutigen »nein«, was Salton und McGills Aussage von 1983, »daß einfache automatische Indexierungsverfahren schnell und kostengünstig arbeiten, und daß sie Recall- und Precisionwerte erreichen, die mindestens genauso gut sind wie bei der manuellen Indexierung mit kontrolliertem Vokabular « (Gerard Salton und Michael J. McGill: Information Retrieval. Hamburg u.a. 1987, S. 64 f.) kräftig relativiert. Über die Gründe, warum drei der großen Projekte nicht weiter verfolgt werden, will Oberhauser nicht spekulieren, nennt aber mangelnden Erfolg, Verlagerung der Arbeit in den beteiligten Institutionen sowie Finanzierungsprobleme als mögliche Ursachen. Das größte Entwicklungspotenzial beim automatischen Erschließen großer Dokumentenmengen sieht der Verfasser heute in den Bereichen der Patentund Mediendokumentation. Hier solle man im bibliothekarischen Bereich die Entwicklung genau verfolgen, da diese »sicherlich mittelfristig auf eine qualitativ zufrieden stellende Vollautomatisierung« abziele (S. 146). Oberhausers Darstellung ist ein rundum gelungenes Werk, das zum Handapparat eines jeden, der sich für automatische Erschließung interessiert, gehört."
  13. Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013) 0.01
    0.009079304 = product of:
      0.036317214 = sum of:
        0.036317214 = weight(_text_:indexierung in 4382) [ClassicSimilarity], result of:
          0.036317214 = score(doc=4382,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.2079636 = fieldWeight in 4382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4382)
      0.25 = coord(1/4)
    
    Content
    B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
  14. Grundlagen der praktischen Information und Dokumentation (2004) 0.01
    0.006485217 = product of:
      0.025940867 = sum of:
        0.025940867 = weight(_text_:indexierung in 693) [ClassicSimilarity], result of:
          0.025940867 = score(doc=693,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.14854543 = fieldWeight in 693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.01953125 = fieldNorm(doc=693)
      0.25 = coord(1/4)
    
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
  15. Chu, H.: Information representation and retrieval in the digital age (2010) 0.01
    0.0051881736 = product of:
      0.020752694 = sum of:
        0.020752694 = weight(_text_:indexierung in 92) [ClassicSimilarity], result of:
          0.020752694 = score(doc=92,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.11883634 = fieldWeight in 92, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.015625 = fieldNorm(doc=92)
      0.25 = coord(1/4)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
  16. Broughton, V.: Essential thesaurus construction (2006) 0.01
    0.0051881736 = product of:
      0.020752694 = sum of:
        0.020752694 = weight(_text_:indexierung in 2924) [ClassicSimilarity], result of:
          0.020752694 = score(doc=2924,freq=2.0), product of:
            0.17463255 = queryWeight, product of:
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.03247214 = queryNorm
            0.11883634 = fieldWeight in 2924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.377919 = idf(docFreq=554, maxDocs=44218)
              0.015625 = fieldNorm(doc=2924)
      0.25 = coord(1/4)
    
    Footnote
    Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
  17. Chan, L.M.; Mitchell, J.S.: Dewey Decimal Classification : principles and applications (2003) 0.00
    0.0030796689 = product of:
      0.012318675 = sum of:
        0.012318675 = product of:
          0.061593376 = sum of:
            0.061593376 = weight(_text_:22 in 3247) [ClassicSimilarity], result of:
              0.061593376 = score(doc=3247,freq=2.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.5416616 = fieldWeight in 3247, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3247)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Object
    DDC-22
  18. Kaiser, U.: Handbuch Internet und Online Dienste : der kompetente Reiseführer für das digitale Netz (1996) 0.00
    0.0026397163 = product of:
      0.010558865 = sum of:
        0.010558865 = product of:
          0.052794322 = sum of:
            0.052794322 = weight(_text_:22 in 4589) [ClassicSimilarity], result of:
              0.052794322 = score(doc=4589,freq=2.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.46428138 = fieldWeight in 4589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4589)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Series
    Heyne Business; 22/1019
  19. Kumar, K.: Theory of classification (1989) 0.00
    0.0026397163 = product of:
      0.010558865 = sum of:
        0.010558865 = product of:
          0.052794322 = sum of:
            0.052794322 = weight(_text_:22 in 6774) [ClassicSimilarity], result of:
              0.052794322 = score(doc=6774,freq=2.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.46428138 = fieldWeight in 6774, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6774)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    25. 3.2019 18:15:22
  20. Langridge, D.W.: Classification: its kinds, systems, elements and application (1992) 0.00
    0.0024887484 = product of:
      0.009954994 = sum of:
        0.009954994 = product of:
          0.049774967 = sum of:
            0.049774967 = weight(_text_:22 in 770) [ClassicSimilarity], result of:
              0.049774967 = score(doc=770,freq=4.0), product of:
                0.11371191 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03247214 = queryNorm
                0.4377287 = fieldWeight in 770, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=770)
          0.2 = coord(1/5)
      0.25 = coord(1/4)
    
    Date
    26. 7.2002 14:01:22
    Footnote
    Rez. in: Journal of documentation 49(1993) no.1, S.68-70. (A. Maltby); Journal of librarianship and information science 1993, S.108-109 (A.G. Curwen); Herald of library science 33(1994) nos.1/2, S.85 (P.N. Kaula); Knowledge organization 22(1995) no.1, S.45 (M.P. Satija)

Years

Languages

  • d 19
  • e 16

Types

  • m 32
  • s 3
  • a 1
  • el 1
  • More… Less…