Search (26 results, page 1 of 2)

  • × theme_ss:"Inhaltsanalyse"
  1. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.01
    0.008439388 = product of:
      0.050636325 = sum of:
        0.050636325 = weight(_text_:bibliothek in 3923) [ClassicSimilarity], result of:
          0.050636325 = score(doc=3923,freq=4.0), product of:
            0.1578712 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.038453303 = queryNorm
            0.32074454 = fieldWeight in 3923, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3923)
      0.16666667 = coord(1/6)
    
    RSWK
    Bibliothek / Klassifikation (ÖVK)
    Subject
    Bibliothek / Klassifikation (ÖVK)
  2. Laffal, J.: ¬A concept analysis of Jonathan Swift's 'Tale of a tub' and 'Gulliver's travels' (1995) 0.00
    0.0049565206 = product of:
      0.029739123 = sum of:
        0.029739123 = product of:
          0.089217365 = sum of:
            0.089217365 = weight(_text_:29 in 6362) [ClassicSimilarity], result of:
              0.089217365 = score(doc=6362,freq=4.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.6595664 = fieldWeight in 6362, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6362)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    8. 3.1997 10:05:29
    Source
    Computers and the humanities. 29(1995) no.5, S.339-361
  3. Martindale, C.; McKenzie, D.: On the utility of content analysis in author attribution : 'The federalist' (1995) 0.00
    0.0049565206 = product of:
      0.029739123 = sum of:
        0.029739123 = product of:
          0.089217365 = sum of:
            0.089217365 = weight(_text_:29 in 822) [ClassicSimilarity], result of:
              0.089217365 = score(doc=822,freq=4.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.6595664 = fieldWeight in 822, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=822)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    8. 3.1997 10:05:29
    Source
    Computers and the humanities. 29(1995) no.4, S.259-270
  4. Gardin, J.C.: Document analysis and linguistic theory (1973) 0.00
    0.004673052 = product of:
      0.028038312 = sum of:
        0.028038312 = product of:
          0.08411493 = sum of:
            0.08411493 = weight(_text_:29 in 2387) [ClassicSimilarity], result of:
              0.08411493 = score(doc=2387,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.6218451 = fieldWeight in 2387, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.125 = fieldNorm(doc=2387)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of documentation. 29(1973) no.2, S.137-168
  5. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.00
    0.0037028994 = product of:
      0.022217397 = sum of:
        0.022217397 = weight(_text_:internet in 213) [ClassicSimilarity], result of:
          0.022217397 = score(doc=213,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.1957077 = fieldWeight in 213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.046875 = fieldNorm(doc=213)
      0.16666667 = coord(1/6)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
  6. Rosso, M.A.: User-based identification of Web genres (2008) 0.00
    0.00308575 = product of:
      0.018514499 = sum of:
        0.018514499 = weight(_text_:internet in 1863) [ClassicSimilarity], result of:
          0.018514499 = score(doc=1863,freq=2.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.16308975 = fieldWeight in 1863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1863)
      0.16666667 = coord(1/6)
    
    Theme
    Internet
  7. Pejtersen, A.M.: Design of a classification scheme for fiction based on an analysis of actual user-librarian communication, and use of the scheme for control of librarians' search strategies (1980) 0.00
    0.0028943846 = product of:
      0.017366307 = sum of:
        0.017366307 = product of:
          0.05209892 = sum of:
            0.05209892 = weight(_text_:22 in 5835) [ClassicSimilarity], result of:
              0.05209892 = score(doc=5835,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.38690117 = fieldWeight in 5835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5835)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    5. 8.2006 13:22:44
  8. Bade, D.: ¬The creation and persistence of misinformation in shared library catalogs : language and subject knowledge in a technological era (2002) 0.00
    0.0023260168 = product of:
      0.0139561 = sum of:
        0.0139561 = product of:
          0.02093415 = sum of:
            0.010514366 = weight(_text_:29 in 1858) [ClassicSimilarity], result of:
              0.010514366 = score(doc=1858,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.07773064 = fieldWeight in 1858, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1858)
            0.010419784 = weight(_text_:22 in 1858) [ClassicSimilarity], result of:
              0.010419784 = score(doc=1858,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.07738023 = fieldWeight in 1858, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1858)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 9.1997 19:16:05
    Footnote
    Arguing that catalogers need to work both quickly and accurately, Bade maintains that employing specialists is the most efficient and effective way to achieve this outcome. Far less compelling than these arguments are Bade's concluding remarks, in which he offers meager suggestions for correcting the problems as he sees them. Overall, this essay is little more than a curmudgeon's diatribe. Addressed primarily to catalogers and library administrators, the analysis presented is too superficial to assist practicing catalogers or cataloging managers in developing solutions to any systemic problems in current cataloging practice, and it presents too little evidence of pervasive problems to convince budget-conscious library administrators of a need to alter practice or to increase their investment in local cataloging operations. Indeed, the reliance upon anecdotal evidence and the apparent nit-picking that dominate the essay might tend to reinforce a negative image of catalogers in the minds of some. To his credit, Bade does provide an important reminder that it is the intellectual contributions made by thousands of erudite catalogers that have made shared cataloging a successful strategy for improving cataloging efficiency. This is an important point that often seems to be forgotten in academic libraries when focus centers an cutting costs. Had Bade focused more narrowly upon the issue of deintellectualization of cataloging and written a carefully structured essay to advance this argument, this essay might have been much more effective." - KO 29(2002) nos.3/4, S.236-237 (A. Sauperl)
  9. Beghtol, C.: Toward a theory of fiction analysis for information storage and retrieval (1992) 0.00
    0.0023155077 = product of:
      0.0138930455 = sum of:
        0.0138930455 = product of:
          0.041679136 = sum of:
            0.041679136 = weight(_text_:22 in 5830) [ClassicSimilarity], result of:
              0.041679136 = score(doc=5830,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.30952093 = fieldWeight in 5830, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5830)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    5. 8.2006 13:22:08
  10. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.00
    0.0023155077 = product of:
      0.0138930455 = sum of:
        0.0138930455 = product of:
          0.041679136 = sum of:
            0.041679136 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.041679136 = score(doc=251,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 5.2021 12:43:05
  11. Raieli, R.: ¬The semantic hole : enthusiasm and caution around multimedia information retrieval (2012) 0.00
    0.002046639 = product of:
      0.012279834 = sum of:
        0.012279834 = product of:
          0.0368395 = sum of:
            0.0368395 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.0368395 = score(doc=4888,freq=4.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27358043 = fieldWeight in 4888, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4888)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 1.2012 13:02:10
    Source
    Knowledge organization. 39(2012) no.1, S.13-22
  12. Hjoerland, B.: Towards a theory of aboutness, subject, topicality, theme, domain, field, content ... and relevance (2001) 0.00
    0.0020444603 = product of:
      0.012266762 = sum of:
        0.012266762 = product of:
          0.036800284 = sum of:
            0.036800284 = weight(_text_:29 in 6032) [ClassicSimilarity], result of:
              0.036800284 = score(doc=6032,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27205724 = fieldWeight in 6032, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=6032)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 9.2001 14:03:14
  13. Chen, H.: ¬An analysis of image queries in the field of art history (2001) 0.00
    0.0020444603 = product of:
      0.012266762 = sum of:
        0.012266762 = product of:
          0.036800284 = sum of:
            0.036800284 = weight(_text_:29 in 5187) [ClassicSimilarity], result of:
              0.036800284 = score(doc=5187,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27205724 = fieldWeight in 5187, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5187)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Chen arranged with an Art History instructor to require 20 medieval art images in papers received from 29 students. Participants completed a self administered presearch and postsearch questionnaire, and were interviewed after questionnaire analysis, in order to collect both the keywords and phrases they planned to use, and those actually used. Three MLIS student reviewers then mapped the queries to Enser and McGregor's four categories, Jorgensen's 12 classes, and Fidel's 12 feature data and object poles providing a degree of match on a seven point scale (one not at all to 7 exact). The reviewers give highest scores to Enser and McGregor;'s categories. Modifications to both the Enser and McGregor and Jorgensen schemes are suggested
  14. Marshall, L.: Specific and generic subject headings : increasing subject access to library materials (2003) 0.00
    0.0020444603 = product of:
      0.012266762 = sum of:
        0.012266762 = product of:
          0.036800284 = sum of:
            0.036800284 = weight(_text_:29 in 5497) [ClassicSimilarity], result of:
              0.036800284 = score(doc=5497,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27205724 = fieldWeight in 5497, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5497)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    30. 7.2006 14:29:04
  15. Shatford, S.: Analyzing the subject of a picture : a theoretical approach (1986) 0.00
    0.0020444603 = product of:
      0.012266762 = sum of:
        0.012266762 = product of:
          0.036800284 = sum of:
            0.036800284 = weight(_text_:29 in 354) [ClassicSimilarity], result of:
              0.036800284 = score(doc=354,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.27205724 = fieldWeight in 354, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=354)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    7. 1.2007 13:00:29
  16. Früh, W.: Inhaltsanalyse (2001) 0.00
    0.0017523945 = product of:
      0.010514366 = sum of:
        0.010514366 = product of:
          0.0315431 = sum of:
            0.0315431 = weight(_text_:29 in 1751) [ClassicSimilarity], result of:
              0.0315431 = score(doc=1751,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23319192 = fieldWeight in 1751, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1751)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    24. 3.2008 12:29:34
  17. Greisdorf, H.; O'Connor, B.: Modelling what users see when they look at images : a cognitive viewpoint (2002) 0.00
    0.0017523945 = product of:
      0.010514366 = sum of:
        0.010514366 = product of:
          0.0315431 = sum of:
            0.0315431 = weight(_text_:29 in 4471) [ClassicSimilarity], result of:
              0.0315431 = score(doc=4471,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23319192 = fieldWeight in 4471, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4471)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Journal of documentation. 58(2002) no.1, S.6-29
  18. Caldera-Serrano, J.: Thematic description of audio-visual information on television (2010) 0.00
    0.0017523945 = product of:
      0.010514366 = sum of:
        0.010514366 = product of:
          0.0315431 = sum of:
            0.0315431 = weight(_text_:29 in 3953) [ClassicSimilarity], result of:
              0.0315431 = score(doc=3953,freq=2.0), product of:
                0.13526669 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23319192 = fieldWeight in 3953, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3953)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 8.2010 12:40:35
  19. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.00
    0.0017455637 = product of:
      0.010473382 = sum of:
        0.010473382 = weight(_text_:internet in 2061) [ClassicSimilarity], result of:
          0.010473382 = score(doc=2061,freq=4.0), product of:
            0.11352337 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.038453303 = queryNorm
            0.09225749 = fieldWeight in 2061, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.015625 = fieldNorm(doc=2061)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
    Content
    "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
  20. Weimer, K.H.: ¬The nexus of subject analysis and bibliographic description : the case of multipart videos (1996) 0.00
    0.0017366307 = product of:
      0.010419784 = sum of:
        0.010419784 = product of:
          0.03125935 = sum of:
            0.03125935 = weight(_text_:22 in 6525) [ClassicSimilarity], result of:
              0.03125935 = score(doc=6525,freq=2.0), product of:
                0.13465692 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.038453303 = queryNorm
                0.23214069 = fieldWeight in 6525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6525)
          0.33333334 = coord(1/3)
      0.16666667 = coord(1/6)
    
    Source
    Cataloging and classification quarterly. 22(1996) no.2, S.5-18

Languages

  • e 21
  • d 5

Types

  • a 21
  • m 4
  • el 1
  • x 1
  • More… Less…