Search (128 results, page 7 of 7)

  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Hunter, E.J.: Classification - made simple (2002) 0.00
    0.0011642392 = product of:
      0.010478153 = sum of:
        0.010478153 = weight(_text_:of in 3390) [ClassicSimilarity], result of:
          0.010478153 = score(doc=3390,freq=4.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.17103596 = fieldWeight in 3390, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3390)
      0.11111111 = coord(1/9)
    
    Abstract
    This is an attempt to simplify the initial study of classification as used for information retrieval. The text adopts a gradual progression from very basic principles, one which should enable the reader to gain a firm grasp of one idea before proceeding to the next.
  2. Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009) 0.00
    0.0010518994 = product of:
      0.009467094 = sum of:
        0.009467094 = weight(_text_:of in 3394) [ClassicSimilarity], result of:
          0.009467094 = score(doc=3394,freq=10.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.15453234 = fieldWeight in 3394, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=3394)
      0.11111111 = coord(1/9)
    
    Abstract
    This established textbook introduces the essentials of classification as used for information processing. The third edition takes account of developments that have taken place since the second edition was published in 2002. "Classification Made Simple" provides a useful gateway to more advanced works and the study of specific schemes. As an introductory text, it will be invaluable to students of information work and to anyone inside or outside the information profession who needs to understand the manner in which classification can be utilized to facilitate and enhance organisation and retrieval.
    Footnote
    Rez. in: Mitt. VÖB 63(2010) H.1, S.143-147 (O. Oberhauser): " ... Kommen wir zur Kritik, die in den letzten Absätzen ansatzweise schon angeklungen ist. Das Anliegen des Buches ist, wie dem ersten Satz der Einleitung zu entnehmen ist, "to simplify the initial study of classification as used for knowledge organisation and information retrieval" (p. xi). Dies ist dem Autor in den ersten Kapiteln wohl auch gelungen. Die Einführung in die beiden Grundtypen - hier facettierte, dort hierarchische Systeme - ist verständlich und für Anfänger zweifellos gut geeignet. In den folgenden Kapiteln beginnt man sich aber zu fragen, wer eigentlich die Zielgruppe des Buches sein mag. Für Anfänger wird vieles zu schwierig sein, da gerade bei den anspruchsvolleren Aspekten der Text zu oberflächlich ist, keine didaktisch befriedigende Darstellung erfolgt und gelegentlich sogar Fachkenntnisse vorausgesetzt werden. Für Praktiker aus dem Bibliothekswesen fehlt vielfach der Bezug zur alltäglichen Realität, da z.B. Probleme der Buchaufstellung allenfalls am Rande zur Sprache kommen. Hochschullehrer, die eine Lehrveranstaltung zu Klassifikationsthemen vorbereiten müssen, werden manches an dem Buch nützlich finden, vielfach aber ob der mangelnden Detailliertheit zu anderen Unterlagen greifen. So bleibt der oder die "an Fragen der Klassifikation Interessierte" - ein undefiniertes und nicht allzu häufig anzutreffendes Wesen, das aber wahrscheinlich auch existiert und hier eine Fülle von Punkten angerissen findet, die zu einer weiteren Recherche in anderen Quellen animieren. Gut gelungen sind die zahlreichen Beispiele, selbst wenn dafür nicht immer sehr glückliche Notationssysteme gewählt wurden. Auch in sprachlicher Hinsicht ist - zumindest in den Anfangskapiteln - nichts zu bemängeln. Dass die beiden letzten Kapitel eher misslungen sind, wurde bereits oben angedeutet. In den übrigen Abschnitten merkt man dem Buch ebenfalls immer wieder an, dass es in seinen Grundzügen aus der Papier- und nicht aus der Online-Zeit stammt. Dennoch will ich nicht über Gebühr lamentieren, schon deshalb, da es gar nicht so viele brauchbare Lehrbücher zu Klassifikationsthemen gibt. Und in diese letztere Kategorie gehört Hunters Text alldieweil."
  3. Vonhoegen, H.: Einstieg in XML (2002) 0.00
    0.0010320923 = product of:
      0.009288831 = sum of:
        0.009288831 = product of:
          0.018577661 = sum of:
            0.018577661 = weight(_text_:22 in 4002) [ClassicSimilarity], result of:
              0.018577661 = score(doc=4002,freq=2.0), product of:
                0.13719016 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03917671 = queryNorm
                0.1354154 = fieldWeight in 4002, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4002)
          0.5 = coord(1/2)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  4. Berinstein, P.: Communicating with library users : a self-study program (1994) 0.00
    9.408473E-4 = product of:
      0.008467626 = sum of:
        0.008467626 = weight(_text_:of in 1906) [ClassicSimilarity], result of:
          0.008467626 = score(doc=1906,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.13821793 = fieldWeight in 1906, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=1906)
      0.11111111 = coord(1/9)
    
    Abstract
    This self-study workbook guides the librarian toward understanding of the library patron. Through examples and exercises, this workbook illustrates factors that influence communication and offers techniques librarians can adopt for effective interaction at the desk. Chapters include: the communication process, barriers to communication, understanding the user, reference librarian, know thyself, the reference interview and additional techniques for reducing noise
  5. Cleveland, D.B.; Cleveland, A.D.: Introduction to abstracting and indexing (1990) 0.00
    9.408473E-4 = product of:
      0.008467626 = sum of:
        0.008467626 = weight(_text_:of in 317) [ClassicSimilarity], result of:
          0.008467626 = score(doc=317,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.13821793 = fieldWeight in 317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.0625 = fieldNorm(doc=317)
      0.11111111 = coord(1/9)
    
    Footnote
    Rez. in: Journal of the American Society for information Science. 42(1991) S.532-539 (B.H. Weinberg)
  6. Booth, P.F.: Indexing : the manual of good practice (2001) 0.00
    7.8010943E-4 = product of:
      0.007020985 = sum of:
        0.007020985 = weight(_text_:of in 1968) [ClassicSimilarity], result of:
          0.007020985 = score(doc=1968,freq=22.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.11460425 = fieldWeight in 1968, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.015625 = fieldNorm(doc=1968)
      0.11111111 = coord(1/9)
    
    Abstract
    Indexing is an activity which often goes unnoticed and can be taken for granted by reades. Indexing.- The Manual of Good Practice covers all aspects of whole document indexing of books, serial publications, images and sound materials. The book gives the purpose and principles of indexing, and covers areas such as managing the work, technology and other subject specialisms. The Manual takes the reader through the basic principles of indexing an to expert approaches, and therefore has a broad appeal for both indexers and prospective indexers whether they work freelance or in-house.
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
  7. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.00
    5.092486E-4 = product of:
      0.004583237 = sum of:
        0.004583237 = weight(_text_:of in 4320) [ClassicSimilarity], result of:
          0.004583237 = score(doc=4320,freq=6.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.07481265 = fieldWeight in 4320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4320)
      0.11111111 = coord(1/9)
    
    Footnote
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
  8. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.00
    4.7042366E-4 = product of:
      0.004233813 = sum of:
        0.004233813 = weight(_text_:of in 2487) [ClassicSimilarity], result of:
          0.004233813 = score(doc=2487,freq=2.0), product of:
            0.061262865 = queryWeight, product of:
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03917671 = queryNorm
            0.06910896 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.5637573 = idf(docFreq=25162, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
      0.11111111 = coord(1/9)
    
    Abstract
    Automatisches Klassifizieren von Textdokumenten bedeutet die maschinelle Zuordnung jeweils einer oder mehrerer Notationen eines vorgegebenen Klassifikationssystems zu natürlich-sprachlichen Texten mithilfe eines geeigneten Algorithmus. In der vorliegenden Arbeit wird in Form einer umfassenden Literaturstudie ein aktueller Kenntnisstand zu den Ein-satzmöglichkeiten des automatischen Klassifizierens für die sachliche Erschliessung von elektronischen Dokumenten, insbesondere von Web-Ressourcen, erarbeitet. Dies betrifft zum einen den methodischen Aspekt und zum anderen die in relevanten Projekten und Anwendungen gewonnenen Erfahrungen. In methodischer Hinsicht gelten heute statistische Verfahren, die auf dem maschinellen Lernen basieren und auf der Grundlage bereits klassifizierter Beispieldokumente ein Modell - einen "Klassifikator" - erstellen, das zur Klassifizierung neuer Dokumente verwendet werden kann, als "state-of-the-art". Die vier in den 1990er Jahren an den Universitäten Lund, Wolverhampton und Oldenburg sowie bei OCLC (Dublin, OH) durchgeführten "grossen" Projekte zum automatischen Klassifizieren von Web-Ressourcen, die in dieser Arbeit ausführlich analysiert werden, arbeiteten allerdings noch mit einfacheren bzw. älteren methodischen Ansätzen. Diese Projekte bedeuten insbesondere aufgrund ihrer Verwendung etablierter bibliothekarischer Klassifikationssysteme einen wichtigen Erfahrungsgewinn, selbst wenn sie bisher nicht zu permanenten und qualitativ zufriedenstellenden Diensten für die Erschliessung elektronischer Ressourcen geführt haben. Die Analyse der weiteren einschlägigen Anwendungen und Projekte lässt erkennen, dass derzeit in den Bereichen Patent- und Mediendokumentation die aktivsten Bestrebungen bestehen, Systeme für die automatische klassifikatorische Erschliessung elektronischer Dokumente im laufenden operativen Betrieb einzusetzen. Dabei dominieren jedoch halbautomatische Systeme, die menschliche Bearbeiter durch Klassifizierungsvorschläge unterstützen, da die gegenwärtig erreichbare Klassifizierungsgüte für eine Vollautomatisierung meist noch nicht ausreicht. Weitere interessante Anwendungen und Projekte finden sich im Bereich von Web-Portalen, Suchmaschinen und (kommerziellen) Informationsdiensten, während sich etwa im Bibliothekswesen kaum nennenswertes Interesse an einer automatischen Klassifizierung von Büchern bzw. bibliographischen Datensätzen registrieren lässt. Die Studie schliesst mit einer Diskussion der wichtigsten Projekte und Anwendungen sowie einiger im Zusammenhang mit dem automatischen Klassifizieren relevanter Fragestellungen und Themen.

Languages

  • e 105
  • d 23

Types

  • m 110
  • s 10
  • a 8
  • h 3
  • el 2
  • ? 1
  • x 1
  • More… Less…

Subjects

Classifications