Search (34 results, page 2 of 2)

  • × language_ss:"e"
  • × theme_ss:"Grundlagen u. Einführungen: Allgemeine Literatur"
  1. Hedden, H.: ¬The accidental taxonomist (2012) 0.00
    0.0036241983 = product of:
      0.0072483965 = sum of:
        0.0072483965 = product of:
          0.014496793 = sum of:
            0.014496793 = weight(_text_:h in 2915) [ClassicSimilarity], result of:
              0.014496793 = score(doc=2915,freq=4.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.15527807 = fieldWeight in 2915, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2915)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: IWP 64(2013) H.6, S.373-374 (J. Fassbender)
  2. Rowley, J.E.; Farrow, J.: Organizing knowledge : an introduction to managing access to information (2000) 0.00
    0.003203369 = product of:
      0.006406738 = sum of:
        0.006406738 = product of:
          0.012813476 = sum of:
            0.012813476 = weight(_text_:h in 2463) [ClassicSimilarity], result of:
              0.012813476 = score(doc=2463,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.13724773 = fieldWeight in 2463, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2463)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: BuB 53(2001) H.9, S.596 (J. Plieninger)
  3. Introduction to information science and technology (2011) 0.00
    0.003203369 = product of:
      0.006406738 = sum of:
        0.006406738 = product of:
          0.012813476 = sum of:
            0.012813476 = weight(_text_:h in 4045) [ClassicSimilarity], result of:
              0.012813476 = score(doc=4045,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.13724773 = fieldWeight in 4045, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4045)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: JASIST 63(2012) no.8, S.1673-1674 (I. Fourie); Mitt VÖB 65(2012) H.3/4, S.567-571 (O. Oberhauser)
  4. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.00
    0.002774199 = product of:
      0.005548398 = sum of:
        0.005548398 = product of:
          0.011096796 = sum of:
            0.011096796 = weight(_text_:h in 4320) [ClassicSimilarity], result of:
              0.011096796 = score(doc=4320,freq=6.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.118860014 = fieldWeight in 4320, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4320)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
  5. Hunter, E.J.: Classification - made simple : an introduction to knowledge organisation and information retrieval (2009) 0.00
    0.0025626952 = product of:
      0.0051253904 = sum of:
        0.0051253904 = product of:
          0.010250781 = sum of:
            0.010250781 = weight(_text_:h in 3394) [ClassicSimilarity], result of:
              0.010250781 = score(doc=3394,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.10979818 = fieldWeight in 3394, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3394)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 63(2010) H.1, S.143-147 (O. Oberhauser): " ... Kommen wir zur Kritik, die in den letzten Absätzen ansatzweise schon angeklungen ist. Das Anliegen des Buches ist, wie dem ersten Satz der Einleitung zu entnehmen ist, "to simplify the initial study of classification as used for knowledge organisation and information retrieval" (p. xi). Dies ist dem Autor in den ersten Kapiteln wohl auch gelungen. Die Einführung in die beiden Grundtypen - hier facettierte, dort hierarchische Systeme - ist verständlich und für Anfänger zweifellos gut geeignet. In den folgenden Kapiteln beginnt man sich aber zu fragen, wer eigentlich die Zielgruppe des Buches sein mag. Für Anfänger wird vieles zu schwierig sein, da gerade bei den anspruchsvolleren Aspekten der Text zu oberflächlich ist, keine didaktisch befriedigende Darstellung erfolgt und gelegentlich sogar Fachkenntnisse vorausgesetzt werden. Für Praktiker aus dem Bibliothekswesen fehlt vielfach der Bezug zur alltäglichen Realität, da z.B. Probleme der Buchaufstellung allenfalls am Rande zur Sprache kommen. Hochschullehrer, die eine Lehrveranstaltung zu Klassifikationsthemen vorbereiten müssen, werden manches an dem Buch nützlich finden, vielfach aber ob der mangelnden Detailliertheit zu anderen Unterlagen greifen. So bleibt der oder die "an Fragen der Klassifikation Interessierte" - ein undefiniertes und nicht allzu häufig anzutreffendes Wesen, das aber wahrscheinlich auch existiert und hier eine Fülle von Punkten angerissen findet, die zu einer weiteren Recherche in anderen Quellen animieren. Gut gelungen sind die zahlreichen Beispiele, selbst wenn dafür nicht immer sehr glückliche Notationssysteme gewählt wurden. Auch in sprachlicher Hinsicht ist - zumindest in den Anfangskapiteln - nichts zu bemängeln. Dass die beiden letzten Kapitel eher misslungen sind, wurde bereits oben angedeutet. In den übrigen Abschnitten merkt man dem Buch ebenfalls immer wieder an, dass es in seinen Grundzügen aus der Papier- und nicht aus der Online-Zeit stammt. Dennoch will ich nicht über Gebühr lamentieren, schon deshalb, da es gar nicht so viele brauchbare Lehrbücher zu Klassifikationsthemen gibt. Und in diese letztere Kategorie gehört Hunters Text alldieweil."
  6. Chowdhury, G.G.: Introduction to modern information retrieval (2010) 0.00
    0.0025626952 = product of:
      0.0051253904 = sum of:
        0.0051253904 = product of:
          0.010250781 = sum of:
            0.010250781 = weight(_text_:h in 4903) [ClassicSimilarity], result of:
              0.010250781 = score(doc=4903,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.10979818 = fieldWeight in 4903, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4903)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: iwp 62(2011) H.8, S.398-400 (A.R. Brellochs): " ... An der faktisch gegebenen Positionierung als Textbuch für Information Retrieval, einigen Themenfeldern der Informationsvermittlung und des Bibliothekswesens ist zwar grundsätzlich nichts auszusetzen. Leider führt aber die Vielzahl der behandelten Themen dazu, dass trotz des Umfangs von gut 500 Seiten manche für das IR wichtige Themen nur sehr knapp abgehandelt wurden. Diese thematische Überbreite macht den Band leider als generelle Einführung für Leser ohne fachlichen Hintergrund in Informations- oder Bibliothekswissenschaft ungeeignet, denn für diese ist ein großer Teil des Buches nicht ausreichend verständlich.
  7. Rowley, J.E.; Hartley, R.: Organizing knowledge : an introduction to managing access to information (2008) 0.00
    0.0019220213 = product of:
      0.0038440425 = sum of:
        0.0038440425 = product of:
          0.007688085 = sum of:
            0.007688085 = weight(_text_:h in 2464) [ClassicSimilarity], result of:
              0.007688085 = score(doc=2464,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.08234863 = fieldWeight in 2464, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2464)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: VOEB-Mitt. 61(2008) H.4, S.164-167 (O. Oberhauser): " Dieses nunmehr in vierter Auflage vorliegende Werk ist - vor allem in der angelsächsischen Welt - bereits zu einem Standardlehrtext für Studenten informationswissenschaftlicher Studiengänge geworden. Es zeichnete sich stets durch klaren Aufbau, gute Lesbarkeit und eine bei aller Knappheit doch relativ umfassende Themenbehandlung aus. Der im Titel verwendete Begriff organizing knowledge steht hier ja nicht für mögliche engere Bedeutungen wie etwa Wissensrepräsentation oder gar Klassifikation, sondern für den gesamten Themenbereich information retrieval bzw. information management. Die beiden ersten Auflagen verfasste die versierte und produktive Lehrbuchautorin Jennifer Rowley noch alleine;1 erst bei der dritten Auflage (2000) stand ihr John Farrow (2002 verstorben) als Mitautor zur Seite.2 Inzwischen zur Professorin am Department of Information and Communications der Manchester Metropolitan University avanciert, konnte Rowley nunmehr für die neueste Auflage den ebenfalls als Lehrbuchautor erfahrenen Richard Hartley, Professor am selben Institut und überdies dessen Vorstand, als zweiten Verfasser gewinnen. Wie die Autoren in der Einleitung ausführen, wurde das Buch gegenüber der letzten Auflage stark verändert. Die Neuerungen spiegeln insbesondere die anhaltende Verschiebung hin zu einer vernetzten und digitalen Informationswelt wider, mit allen Konsequenzen dieser Entwicklung für Dokumente, Information, Wissen, Informationsdienste und Benutzer. Neue bzw. stark überarbeitete Themenbereiche sind u.a. Ontologien und Taxonomien, Informationsverhalten, digitale Bibliotheken, Semantisches Web, Evaluation von Informationssystemen, Authentifizierung und Sicherheit, Veränderungsmanagement. Der Text wurde revidiert und auch, was diverse Standards und Normen betrifft, auf den aktuellen Stand gebracht. Der in der dritten Auflage noch separate Abschnitt über das Internet und seine Anwendungen wurde zugunsten einer Integration dieser Themen in die einzelnen Kapitel aufgelassen. Das Buch wurde neu gegliedert - es weist jetzt zwölf Kapitel auf, die in drei grosse Abschnitte gruppiert sind. Jedes Kapitel beginnt mit einer kurzen Einleitung, in der die beabsichtigten Lehr- bzw. Lernziele vorgestellt werden. Am Kapitelende gibt es jeweils eine Zusammenfassung, einige (Prüfungs-)Fragen zum Stoff sowie eine nicht allzu lange Liste der zitierten bzw. zur Vertiefung empfohlenen Literatur. Diese durchgehende Strukturierung erleichtert die Lektüre und Rezeption der Inhalte und ist m.E. für einen Lehrtext besonders vorteilhaft.
  8. Chu, H.: Information representation and retrieval in the digital age (2010) 0.00
    0.0018120991 = product of:
      0.0036241983 = sum of:
        0.0036241983 = product of:
          0.0072483965 = sum of:
            0.0072483965 = weight(_text_:h in 92) [ClassicSimilarity], result of:
              0.0072483965 = score(doc=92,freq=4.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.077639036 = fieldWeight in 92, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=92)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: Rez. in: nfd 55(2004) H.4, S.252 (D. Lewandowski):"Die Zahl der Bücher zum Thema Information Retrieval ist nicht gering, auch in deutscher Sprache liegen einige Titel vor. Trotzdem soll ein neues (englischsprachiges) Buch zu diesem Thema hier besprochen werden. Dieses zeichnet sich durch eine Kürze (nur etwa 230 Seiten Text) und seine gute Verständlichkeit aus und richtet sich damit bevorzugt an Studenten in den ersten Semestern. Heting Chu unterrichtet seit 1994 an Palmer School of Library and Information Science der Long Island University New York. Dass die Autorin viel Erfahrung in der Vermittlung des Stoffs in ihren Information-Retrieval-Veranstaltungen sammeln konnte, merkt man dem Buch deutlich an. Es ist einer klaren und verständlichen Sprache geschrieben und führt in die Grundlagen der Wissensrepräsentation und des Information Retrieval ein. Das Lehrbuch behandelt diese Themen als Gesamtkomplex und geht damit über den Themenbereich ähnlicher Bücher hinaus, die sich in der Regel auf das Retrieval beschränken. Das Buch ist in zwölf Kapitel gegliedert, wobei das erste Kapitel eine Übersicht über die zu behandelnden Themen gibt und den Leser auf einfache Weise in die Grundbegriffe und die Geschichte des IRR einführt. Neben einer kurzen chronologischen Darstellung der Entwicklung der IRR-Systeme werden auch vier Pioniere des Gebiets gewürdigt: Mortimer Taube, Hans Peter Luhn, Calvin N. Mooers und Gerard Salton. Dies verleiht dem von Studenten doch manchmal als trocken empfundenen Stoff eine menschliche Dimension. Das zweite und dritte Kapitel widmen sich der Wissensrepräsentation, wobei zuerst die grundlegenden Ansätze wie Indexierung, Klassifikation und Abstracting besprochen werden. Darauf folgt die Behandlung von Wissensrepräsentation mittels Metadaten, wobei v.a. neuere Ansätze wie Dublin Core und RDF behandelt werden. Weitere Unterkapitel widmen sich der Repräsentation von Volltexten und von Multimedia-Informationen. Die Stellung der Sprache im IRR wird in einem eigenen Kapitel behandelt. Dabei werden in knapper Form verschiedene Formen des kontrollierten Vokabulars und die wesentlichen Unterscheidungsmerkmale zur natürlichen Sprache erläutert. Die Eignung der beiden Repräsentationsmöglichkeiten für unterschiedliche IRR-Zwecke wird unter verschiedenen Aspekten diskutiert.
  9. Theory of subject analysis : A sourcebook (1985) 0.00
    0.0016016845 = product of:
      0.003203369 = sum of:
        0.003203369 = product of:
          0.006406738 = sum of:
            0.006406738 = weight(_text_:h in 3622) [ClassicSimilarity], result of:
              0.006406738 = score(doc=3622,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.06862386 = fieldWeight in 3622, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=3622)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Eine exzellente (und durch die Herausgeber kommentierte) Zusammenstellung und Wiedergabe folgender Originalbeiträge: CUTTER, C.A.: Subjects; DEWEY, M.: Decimal classification and relativ index: introduction; HOPWOOD, H.V.: Dewey expanded; HULME, E.W.: Principles of book classification; KAISER, J.O.: Systematic indexing; MARTEL, C.: Classification: a brief conspectus of present day library practice; BLISS, H.E.: A bibliographic classification: principles and definitions; RANGANATHAN, S.R.: Facet analysis: fundamental categories; PETTEE, J.: The subject approach to books and the development of the dictionary catalog; PETTEE, J.: Fundamental principles of the dictionary catalog; PETTEE, J.: Public libraries and libraries as purveyors of information; HAYKIN, D.J.: Subject headings: fundamental concepts; TAUBE, M.: Functional approach to bibliographic organization: a critique and a proposal; VICKERY, B.C.: Systematic subject indexing; FEIBLEMAN, J.K.: Theory of integrative levels; GARFIELD, E.: Citation indexes for science; CRG: The need for a faceted classification as the basis of all methods of information retrieval; LUHN, H.P.: Keyword-in-context index for technical literature; COATES, E.J.: Significance and term relationship in compound headings; FARRADANE, J.E.L.: Fundamental fallacies and new needs in classification; FOSKETT, D.J.: Classification and integrative levels; CLEVERDON, C.W. u. J. MILLS: The testing of index language devices; MOOERS, C.N.: The indexing language of an information retrieval system; NEEDHAM, R.M. u. K. SPARCK JONES: Keywords and clumps; ROLLING, L.: The role of graphic display of concept relationships in indexing and retrieval vocabularies; BORKO, H.: Research in computer based classification systems; WILSON, P.: Subjects and the sense of position; LANCASTER, F.W.: Evaluating the performance of a large computerized information system; SALTON, G.: Automatic processing of foreign language documents; FAIRTHORNE, R.A.: Temporal structure in bibliographic classification; AUSTIN, D. u. J.A. DIGGER: PRECIS: The Preserved Context Index System; FUGMANN, R.: The complementarity of natural and indexing languages
  10. Antoniou, G.; Harmelen, F. van: ¬A semantic Web primer (2004) 0.00
    0.0016016845 = product of:
      0.003203369 = sum of:
        0.003203369 = product of:
          0.006406738 = sum of:
            0.006406738 = weight(_text_:h in 468) [ClassicSimilarity], result of:
              0.006406738 = score(doc=468,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.06862386 = fieldWeight in 468, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=468)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: JASIST 57(2006) no.8, S.1132-1133 (H. Che): "The World Wide Web has been the main source of an important shift in the way people communicate with each other, get information, and conduct business. However, most of the current Web content is only suitable for human consumption. The main obstacle to providing better quality of service is that the meaning of Web content is not machine-accessible. The "Semantic Web" is envisioned by Tim Berners-Lee as a logical extension to the current Web that enables explicit representations of term meaning. It aims to bring the Web to its full potential via the exploration of these machine-processable metadata. To fulfill this, it pros ides some meta languages like RDF, OWL, DAML+OIL, and SHOE for expressing knowledge that has clear, unambiguous meanings. The first steps in searing the Semantic Web into the current Web are successfully underway. In the forthcoming years, these efforts still remain highly focused in the research and development community. In the next phase, the Semantic Web will respond more intelligently to user queries. The first chapter gets started with an excellent introduction to the Semantic Web vision. At first, today's Web is introduced, and problems with some current applications like search engines are also covered. Subsequently, knowledge management. business-to-consumer electronic commerce, business-to-business electronic commerce, and personal agents are used as examples to show the potential requirements for the Semantic Web. Next comes the brief description of the underpinning technologies, including metadata, ontology, logic, and agent. The differences between the Semantic Web and Artificial Intelligence are also discussed in a later subsection. In section 1.4, the famous "laser-cake" diagram is given to show a layered view of the Semantic Web. From chapter 2, the book starts addressing some of the most important technologies for constructing the Semantic Web. In chapter 2, the authors discuss XML and its related technologies such as namespaces, XPath, and XSLT. XML is a simple, very flexible text format which is often used for the exchange of a wide variety of data on the Web and elsewhere. The W3C has defined various languages on top of XML, such as RDF. Although this chapter is very well planned and written, many details are not included because of the extensiveness of the XML technologies. Many other books on XML provide more comprehensive coverage.
  11. Booth, P.F.: Indexing : the manual of good practice (2001) 0.00
    0.0012813476 = product of:
      0.0025626952 = sum of:
        0.0025626952 = product of:
          0.0051253904 = sum of:
            0.0051253904 = weight(_text_:h in 1968) [ClassicSimilarity], result of:
              0.0051253904 = score(doc=1968,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.05489909 = fieldWeight in 1968, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1968)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
  12. Broughton, V.: Essential thesaurus construction (2006) 0.00
    0.0012813476 = product of:
      0.0025626952 = sum of:
        0.0025626952 = product of:
          0.0051253904 = sum of:
            0.0051253904 = weight(_text_:h in 2924) [ClassicSimilarity], result of:
              0.0051253904 = score(doc=2924,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.05489909 = fieldWeight in 2924, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
  13. Batley, S.: Classification in theory and practice (2005) 0.00
    0.0012813476 = product of:
      0.0025626952 = sum of:
        0.0025626952 = product of:
          0.0051253904 = sum of:
            0.0051253904 = weight(_text_:h in 1170) [ClassicSimilarity], result of:
              0.0051253904 = score(doc=1170,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.05489909 = fieldWeight in 1170, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1170)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: Mitt. VÖB 59(2006) H.1, S.58-60 (O. Oberhauser).
  14. Broughton, V.: Essential classification (2004) 0.00
    0.0012813476 = product of:
      0.0025626952 = sum of:
        0.0025626952 = product of:
          0.0051253904 = sum of:
            0.0051253904 = weight(_text_:h in 2824) [ClassicSimilarity], result of:
              0.0051253904 = score(doc=2824,freq=2.0), product of:
                0.09336021 = queryWeight, product of:
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.03757783 = queryNorm
                0.05489909 = fieldWeight in 2824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4844491 = idf(docFreq=10020, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2824)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Weitere Rez. in: ZfBB 53(2006) H.2, S.111-113 (W. Gödert)

Years

Types

  • m 29
  • h 3
  • s 3
  • el 1
  • More… Less…