Search (39 results, page 1 of 2)

  • × theme_ss:"Inhaltsanalyse"
  1. Rorissa, A.; Iyer, H.: Theories of cognition and image categorization : what category labels reveal about basic level theory (2008) 0.03
    0.030130735 = product of:
      0.1807844 = sum of:
        0.1807844 = weight(_text_:theories in 1958) [ClassicSimilarity], result of:
          0.1807844 = score(doc=1958,freq=8.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.7242289 = fieldWeight in 1958, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=1958)
      0.16666667 = coord(1/6)
    
    Abstract
    Information search and retrieval interactions usually involve information content in the form of document collections, information retrieval systems and interfaces, and the user. To fully understand information search and retrieval interactions between users' cognitive space and the information space, researchers need to turn to cognitive models and theories. In this article, the authors use one of these theories, the basic level theory. Use of the basic level theory to understand human categorization is both appropriate and essential to user-centered design of taxonomies, ontologies, browsing interfaces, and other indexing tools and systems. Analyses of data from two studies involving free sorting by 105 participants of 100 images were conducted. The types of categories formed and category labels were examined. Results of the analyses indicate that image category labels generally belong to superordinate to the basic level, and are generic and interpretive. Implications for research on theories of cognition and categorization, and design of image indexing, retrieval and browsing systems are discussed.
  2. Hjoerland, B.: Towards a theory of aboutness, subject, topicality, theme, domain, field, content ... and relevance (2001) 0.02
    0.024856588 = product of:
      0.14913952 = sum of:
        0.14913952 = weight(_text_:theories in 6032) [ClassicSimilarity], result of:
          0.14913952 = score(doc=6032,freq=4.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.59745836 = fieldWeight in 6032, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0546875 = fieldNorm(doc=6032)
      0.16666667 = coord(1/6)
    
    Abstract
    Theories of aboutness and theories of subject analysis and of related concepts such as topicality are often isolated from each other in the literature of information science (IS) and related disciplines. In IS it is important to consider the nature and meaning of these concepts, which is closely related to theoretical and metatheoretical issues in information retrieval (IR). A theory of IR must specify which concepts should be regarded as synonymous concepts and explain how the meaning of the nonsynonymous concepts should be defined
  3. Bertrand-Gastaldy, S.B.: Convergent theories : using a multidisciplinary approach to expalin indexing results (1995) 0.02
    0.021305649 = product of:
      0.12783389 = sum of:
        0.12783389 = weight(_text_:theories in 3832) [ClassicSimilarity], result of:
          0.12783389 = score(doc=3832,freq=4.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.5121072 = fieldWeight in 3832, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=3832)
      0.16666667 = coord(1/6)
    
    Abstract
    In order to explain how indexers chose their keywords and how their results can differ between each other, focuses on certain properties of the terms rather than on the terms themselves. Bases the study on 4 premises borrowed from research in semiotics, cognitive science, discourse analysis and reading theories. Reports on the methodology used, and some of the findings obtained by comparing properties of indexing terms with the content of titles and abstracts of 844 bibliographic records extracted from a database on environment. Characterizes some tendencies of the special reading which indexing constitutes as a series of properties of the selected or rejected works and explains the differences among several indexers by the porperties toward which they are inclined
  4. Andersen, J.: ¬The concept of genre : when, how, and why? (2001) 0.02
    0.020087158 = product of:
      0.120522946 = sum of:
        0.120522946 = weight(_text_:theories in 639) [ClassicSimilarity], result of:
          0.120522946 = score(doc=639,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.4828193 = fieldWeight in 639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0625 = fieldNorm(doc=639)
      0.16666667 = coord(1/6)
    
    Footnote
    Bericht von einer Tagung "Genre 2001. Genres and Discourses in Education, Work and Cultural Life: Encounters of Academic Disciplines on Theories and Practices", May 13th to 16th, 2001, Oslo University College, Olso, Norway
  5. Ornager, S.: View a picture : theoretical image analysis and empirical user studies on indexing and retrieval (1996) 0.02
    0.017576262 = product of:
      0.105457574 = sum of:
        0.105457574 = weight(_text_:theories in 904) [ClassicSimilarity], result of:
          0.105457574 = score(doc=904,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.42246687 = fieldWeight in 904, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0546875 = fieldNorm(doc=904)
      0.16666667 = coord(1/6)
    
    Abstract
    Examines Panofsky's and Barthes's theories of image analysis and reports on a study of criteria for analysis and indexing of images and the different types of user queries used in 15 Danish newspaper image archives. A structured interview method and observation and various categories for subject analysis were used. The results identify a list of the minimum number of elements and led to user typology of 5 categories. The requirement for retrieval may involve combining images in a more visual way with text-based image retrieval
  6. Beghtol, C.: ¬The classification of fiction : the development of a system based on theoretical principles (1994) 0.02
    0.017576262 = product of:
      0.105457574 = sum of:
        0.105457574 = weight(_text_:theories in 3413) [ClassicSimilarity], result of:
          0.105457574 = score(doc=3413,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.42246687 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3413)
      0.16666667 = coord(1/6)
    
    Abstract
    The work is an adaptation of the author's dissertation and has the following chapters: (1) background and introduction; (2) a problem in classification theory; (3) previous fiction analysis theories and systems and 'The left hand of darkness'; (4) fiction warrant and critical warrant; (5) experimental fiction analysis system (EFAS); (6) application and evaluation of EFAS. Appendix 1 gives references to fiction analysis systems and appendix 2 lists EFAS coding sheets
  7. Shaw, R.: Information organization and the philosophy of history (2013) 0.02
    0.017576262 = product of:
      0.105457574 = sum of:
        0.105457574 = weight(_text_:theories in 946) [ClassicSimilarity], result of:
          0.105457574 = score(doc=946,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.42246687 = fieldWeight in 946, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0546875 = fieldNorm(doc=946)
      0.16666667 = coord(1/6)
    
    Abstract
    The philosophy of history can help articulate problems relevant to information organization. One such problem is "aboutness": How do texts relate to the world? In response to this problem, philosophers of history have developed theories of colligation describing how authors bind together phenomena under organizing concepts. Drawing on these ideas, I present a theory of subject analysis that avoids the problematic illusion of an independent "landscape" of subjects. This theory points to a broad vision of the future of information organization and some specific challenges to be met.
  8. Hjoerland, B.: ¬The concept of 'subject' in information science (1992) 0.02
    0.015065367 = product of:
      0.0903922 = sum of:
        0.0903922 = weight(_text_:theories in 2247) [ClassicSimilarity], result of:
          0.0903922 = score(doc=2247,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.36211446 = fieldWeight in 2247, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=2247)
      0.16666667 = coord(1/6)
    
    Abstract
    This article presents a theoretical investigation of the concept of 'subject' or 'subject matter' in library and information science. Most conceptions of 'subject' in the literature are not explicit but implicit. Various indexing and classification theories, including automatic indexing and citation indexing, have their own more or less implicit concepts of subject. This fact puts the emphasis on making the implicit theorie of 'subject matter' explicit as the first step. ... The different conceptions of 'subject' can therefore be classified into epistemological positions, e.g. 'subjective idealism' (or the empiric/positivistic viewpoint), 'objective idealism' (the rationalistic viewpoint), 'pragmatism' and 'materialism/realism'. The third and final step is to propose a new theory of subject matter based on an explicit theory of knowledge. In this article this is done from the point of view of a realistic/materialistic epistemology. From this standpoint the subject of a document is defined as the epistemological potentials of that document
  9. Fremery, W. De; Buckland, M.K.: Context, relevance, and labor (2022) 0.02
    0.015065367 = product of:
      0.0903922 = sum of:
        0.0903922 = weight(_text_:theories in 4240) [ClassicSimilarity], result of:
          0.0903922 = score(doc=4240,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.36211446 = fieldWeight in 4240, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.046875 = fieldNorm(doc=4240)
      0.16666667 = coord(1/6)
    
    Abstract
    Since information science concerns the transmission of records, it concerns context. The transmission of documents ensures their arrival in new contexts. Documents and their copies are spread across times and places. The amount of labor required to discover and retrieve relevant documents is also formulated by context. Thus, any serious consideration of communication and of information technologies quickly leads to a concern with context, relevance, and labor. Information scientists have developed many theories of context, relevance, and labor but not a framework for organizing them and describing their relationship with one another. We propose the words context and relevance can be used to articulate a useful framework for considering the diversity of approaches to context and relevance in information science, as well as their relations with each other and with labor.
  10. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.01
    0.014973308 = product of:
      0.044919923 = sum of:
        0.020154228 = weight(_text_:der in 251) [ClassicSimilarity], result of:
          0.020154228 = score(doc=251,freq=2.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.19743896 = fieldWeight in 251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=251)
        0.024765696 = product of:
          0.049531393 = sum of:
            0.049531393 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.049531393 = score(doc=251,freq=2.0), product of:
                0.16002598 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045697823 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Date
    22. 5.2021 12:43:05
  11. Campbell, G.: Queer theory and the creation of contextual subject access tools for gay and lesbian communities (2000) 0.01
    0.012554473 = product of:
      0.07532684 = sum of:
        0.07532684 = weight(_text_:theories in 6054) [ClassicSimilarity], result of:
          0.07532684 = score(doc=6054,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.30176204 = fieldWeight in 6054, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6054)
      0.16666667 = coord(1/6)
    
    Abstract
    Knowledge organization research has come to question the theoretical distinction between "aboutness" (a document's innate content) and "meaning" (the use to which a document is put). This distinction has relevance beyond Information Studies, particularly in relation to homosexual concerns. Literary criticism, in particular, frequently addresses the question: when is a work "about" homosexuality? This paper explores this literary debate and its implications for the design of subject access systems for gay and lesbian communities. By examining the literary criticism of Herman Melville's Billy Budd, particularly in relation to the theories of Eve Kosofsky Sedgwick in The Epistemology of the Closet (1990), this paper exposes three tensions that designers of gay and lesbian classifications and vocabularies can expect to face. First is a tension between essentialist and constructivist views of homosexuality, which will affect the choice of terms, categories, and references. Second is a tension between minoritizing and universalizing perspectives on homosexuality. Third is a redefined distinction between aboutness and meaning, in which aboutness refers not to stable document content, but to the system designer's inescapable social and ideological perspectives. Designers of subject access systems can therefore expect to work in a context of intense scrutiny and persistent controversy
  12. Nohr, H.: Inhaltsanalyse (1999) 0.01
    0.009500795 = product of:
      0.05700477 = sum of:
        0.05700477 = weight(_text_:der in 3430) [ClassicSimilarity], result of:
          0.05700477 = score(doc=3430,freq=16.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.5584417 = fieldWeight in 3430, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3430)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
  13. Sigel, A.: How can user-oriented depth analysis be constructively guided? (2000) 0.01
    0.008788131 = product of:
      0.052728787 = sum of:
        0.052728787 = weight(_text_:theories in 133) [ClassicSimilarity], result of:
          0.052728787 = score(doc=133,freq=2.0), product of:
            0.2496233 = queryWeight, product of:
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.045697823 = queryNorm
            0.21123344 = fieldWeight in 133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.4624767 = idf(docFreq=509, maxDocs=44218)
              0.02734375 = fieldNorm(doc=133)
      0.16666667 = coord(1/6)
    
    Abstract
    It is vital for library and information science to understand the subject indexing process thoroughly. However, document analysis, the first and most important step in indexing, has not received sufficient attention. As this is an exceptionally hard problem, we still do not dispose of a sound indexing theory. Therefore we have difficulties in teaching indexing and in explaining why a given subject representation is "better" than another. Technological advancements have not helped to close this fundamental gap. To proceed, we should ask the right questions instead. Several types of indexer inconsistencies can be explained as acceptable, yet different conceptualizations which resulting of the variety of groups dealing with a problem from their respective viewpoints. Multiple indexed documents are regarded as the normal case. Intersubjectively replicable indexing results are often questionable or do not constitute interesting cases of indexing at all. In the context of my ongoing dissertation in which I intend to develop an enhanced indexing theory by investigating improvements within a social sciences domain, this paper explains user-oriented selective depth analysis and why I chose that configuration. Strongly influenced by Mai's dissertation, I also communicate my first insights concerning current indexing theories. I agree that I cannot ignore epistemological stances and philosophical issues in language and meaning related to indexing and accept the openness of the interpretive nature of the indexing process. Although I present arguments against the employment of an indexing language as well, it is still indispensable in situations which demand easier access and control by devices. Despite the enormous difficulties the user-oriented and selective depth analysis poses, I argue that it is both feasible and useful if one achieves careful guidance of the possible interpretations. There is some hope because the number of useful interpretations is limited: Every summary is tailored to a purpose, audience and situation. Domain, discourse and social practice entail additional constraints. A pluralistic method mix that focusses on ecologically valid, holistic contexts and employs qualitative methods is recommended. Domain analysis urgently has to be made more practical and applicable. Only then we will be able to investigate empirically domains in order to identify their structures shaped by the corresponding discourse communities. We plan to represent the recognized problem structures and indexing questions of relevance to a small domain in formal, ontological computer models -- if we can find such stable knowledge structures. This would allow us to tailor dynamically summaries for user communities. For practical purposes we suggest to assume a less demanding position than Hjorland's "totality of the epistemological potential". It is sufficent that we identify and represent iteratively the information needs of today's user groups in interactive knowledge-based systems. The best way to formalize such knowledge gained about discourse communities is however unknown. Indexers should stay in direct contact with the community they serve or be part of it to ensure agreement with their viewpoints. Checklist/request-oriented indexing could be very helpful but it remains to be demonstrated how well it will be applicable in the social sciences. A frame-based representation or at least a sophisticated grouping of terms could help to express relational knowledge structures. There remains much work to do since in practice no one has shown yet how such an improved indexing system would work and if the indexing results were really "better".
  14. Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985) 0.01
    0.0082279295 = product of:
      0.049367577 = sum of:
        0.049367577 = weight(_text_:der in 2924) [ClassicSimilarity], result of:
          0.049367577 = score(doc=2924,freq=12.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.4836247 = fieldWeight in 2924, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2924)
      0.16666667 = coord(1/6)
    
    Abstract
    Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
  15. Volpers, H.: Inhaltsanalyse (2013) 0.01
    0.0077762827 = product of:
      0.046657696 = sum of:
        0.046657696 = weight(_text_:der in 1018) [ClassicSimilarity], result of:
          0.046657696 = score(doc=1018,freq=14.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.4570776 = fieldWeight in 1018, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1018)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Begriff Inhaltsanalyse wird je nach wissenschaftlicher Provenienz oder Bedeutungszusammenhang unterschiedlich definiert: Innerhalb der bibliothekarischen Praxis wird die Erfassung des Inhaltes eines vorliegenden Dokumentes für die Zwecke der Indexierung als Inhaltsanalyse bezeichnet, philologische Textinterpretationen oder sprachwissenschaftliche Textanalysen werden gelegentlich als Inhaltsanalysen etikettiert, ebenso die Interpretation von Interviewaussagen in der Psychologie und qualitativen Sozialforschung. Der vorliegende Beitrag bezieht sich explizit auf die sozialwissenschaftliche Methode der systematischen Inhaltsanalyse. Allerdings ist auch durch diese Eingrenzung noch keine hinreichende definitorische Klarheit geschaffen, da eine Unterscheidung in qualitative und quantitative Verfahren vorzunehmen ist.
    Source
    Handbuch Methoden der Bibliotheks- und Informationswissenschaft: Bibliotheks-, Benutzerforschung, Informationsanalyse. Hrsg.: K. Umlauf, S. Fühles-Ubach u. M.S. Seadle
  16. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.01
    0.007223885 = product of:
      0.04334331 = sum of:
        0.04334331 = weight(_text_:der in 2061) [ClassicSimilarity], result of:
          0.04334331 = score(doc=2061,freq=148.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.42460853 = fieldWeight in 2061, product of:
              12.165525 = tf(freq=148.0), with freq of:
                148.0 = termFreq=148.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=2061)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
    Content
    "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
    Das eigentlich Überraschende bei der Untersuchung der von den RSWK zur Illustration ihrer Auflagen selbst angegebenen Beispiele ist aber etwas ganz anderes: Die RSWK-Beispiele demonstrieren mit wenigen Ausnahmen immer eine angemessene Inhaltsanalyse, äußerst problematisch ist jedoch häufig die Repräsentation dieser Ergebnisse in den Schlagwörtern bzw. Schlagwortketten. Hieraus lassen sich sowohl für das Problem der Inhaltsanalyse als auch für die RSWK verschiedene Schlüsse ziehen: So schwierig die Inhaltsanalyse als theoretisches Konzept auch sein mag, so wenig bereitet es fachwissenschaftlich geschulten Indexierern offensichtlich Probleme, die Inhalte von Dokumenten angemessen zu beschreiben. Hier liegt die Vermutung nahe, daß für eine aus inhaltsanalytischer Sicht angemessene Beschreibung von Dokumenten eine langjährige Übung der Indexierer im generellen Umgang mit Texten entscheidender ist als das Vorhandensein eines schlüssigen Konzepts zur Inhaltsanalyse in einem Regelwerk zur Sacherschließung. Dies heißt nicht, daß damit ein schlüssiges Konzept für die Inhaltsanalyse obsolet würde, sondern betont vielmehr die Notwendigkeit einer angemessenen Berücksichtigung von inhaltsanalytischen Gesichtspunkten im Regelwerk einer Schlagwortkatalogisierung. Daß die RSWK entgegen ihrem Anspruch, mit den Schlagwortketten informative Kurz-Abstracts zu liefern, in ihrer Dokumentenbeschreibung in einigen Fällen zu wenig informativ sind, hängt mit einem falsch verstandenen Anspruch von Präzision zusammen, der sich in der Praxis des engen Schlagworts verkörpert. In den in dieser Arbeit behandelten Fällen mangelt es den Beschreibungen zu einem Dokument aufgrund einer zu spezifischen Sacherschließung an wichtigem Orientierungswissen für den Benutzer, das sich in der Regel in den Verweisungen der Schlagwortnormdatei verbirgt. Die Einordnung von Dokumenten in einen größeren systematischen Zusammenhang, was sich beispielsweise auch durch die Vergabe von im Dokument nicht vorkommenden Oberbegriffen realisieren läßt, ist ein wichtiges Anliegen der Inhaltsanalyse, das natürlich ebenso Konsequenzen für die Suchbarkeit der Dokumente hat.
    Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
  17. Knautz, K.; Dröge, E.; Finkelmeyer, S.; Guschauski, D.; Juchem, K.; Krzmyk, C.; Miskovic, D.; Schiefer, J.; Sen, E.; Verbina, J.; Werner, N.; Stock, W.G.: Indexieren von Emotionen bei Videos (2010) 0.01
    0.0071255965 = product of:
      0.042753577 = sum of:
        0.042753577 = weight(_text_:der in 3637) [ClassicSimilarity], result of:
          0.042753577 = score(doc=3637,freq=16.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.4188313 = fieldWeight in 3637, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3637)
      0.16666667 = coord(1/6)
    
    Abstract
    Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun tionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.
  18. Computergestützte Inhaltsanalyse in der empirischen Sozialforschung (1983) 0.01
    0.0067180763 = product of:
      0.040308457 = sum of:
        0.040308457 = weight(_text_:der in 1877) [ClassicSimilarity], result of:
          0.040308457 = score(doc=1877,freq=2.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.3948779 = fieldWeight in 1877, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=1877)
      0.16666667 = coord(1/6)
    
  19. Piekara, F.H.: Wie idiosynkratisch ist Wissen? : Individuelle Unterschiede im Assoziieren und bei der Anlage und Nutzung von Informationssystemen (1988) 0.01
    0.0067180763 = product of:
      0.040308457 = sum of:
        0.040308457 = weight(_text_:der in 2537) [ClassicSimilarity], result of:
          0.040308457 = score(doc=2537,freq=8.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.3948779 = fieldWeight in 2537, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2537)
      0.16666667 = coord(1/6)
    
    Abstract
    Gegenstand dieser Arbeit sind die Unterschiede im Wissen zwischen Personen. Um eine Bestimmung der bestehenden Unterschiede im alltäglichen Wissen zwischen Personen vornehmen zu können, wird der begriff "Wissen" expliziert, der Beitrag verschiedener Wissensrepräsentationskonzeptionen zur Beschreibung von Wissen und somit von Wissensunterschieden diskutiert und schließlich verschiedene Methoden zur Bestimmung von Wissen und Wissensunterschieden aus dem Verhalten dargstellt und bewertet. Durch den inter- und Intraindividuellen Vergleich von Assoziationen wird das Ausmaß an Unterschieden im Wissen zwischen 2 Personen auf 24-27% geschätzt
  20. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.006638882 = product of:
      0.039833292 = sum of:
        0.039833292 = weight(_text_:der in 2508) [ClassicSimilarity], result of:
          0.039833292 = score(doc=2508,freq=20.0), product of:
            0.10207828 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.045697823 = queryNorm
            0.390223 = fieldWeight in 2508, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln

Years

Languages

  • e 21
  • d 18

Types

  • a 25
  • m 8
  • x 5
  • el 2
  • d 1
  • More… Less…