Search (37 results, page 1 of 2)

  • × theme_ss:"Inhaltsanalyse"
  1. Pejtersen, A.M.: Design of a classification scheme for fiction based on an analysis of actual user-librarian communication, and use of the scheme for control of librarians' search strategies (1980) 0.05
    0.053023808 = product of:
      0.106047615 = sum of:
        0.076396786 = weight(_text_:l in 5835) [ClassicSimilarity], result of:
          0.076396786 = score(doc=5835,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.4391412 = fieldWeight in 5835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.078125 = fieldNorm(doc=5835)
        0.029650826 = product of:
          0.059301652 = sum of:
            0.059301652 = weight(_text_:22 in 5835) [ClassicSimilarity], result of:
              0.059301652 = score(doc=5835,freq=2.0), product of:
                0.15327339 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043769516 = queryNorm
                0.38690117 = fieldWeight in 5835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5835)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Date
    5. 8.2006 13:22:44
    Source
    Theory and application of information research. Proc. of the 2nd Int. Research Forum on Information Science, 3.-6.8.1977, Copenhagen. Ed.: O. Harbo u, L. Kajberg
  2. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.04
    0.036181126 = product of:
      0.07236225 = sum of:
        0.053477753 = weight(_text_:l in 1784) [ClassicSimilarity], result of:
          0.053477753 = score(doc=1784,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.30739886 = fieldWeight in 1784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1784)
        0.0188845 = product of:
          0.037769 = sum of:
            0.037769 = weight(_text_:der in 1784) [ClassicSimilarity], result of:
              0.037769 = score(doc=1784,freq=10.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.38630107 = fieldWeight in 1784, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1784)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
  3. Chen, S.-J.; Lee, H.-L.: Art images and mental associations : a preliminary exploration (2014) 0.03
    0.03181428 = product of:
      0.06362856 = sum of:
        0.04583807 = weight(_text_:l in 1416) [ClassicSimilarity], result of:
          0.04583807 = score(doc=1416,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.26348472 = fieldWeight in 1416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.046875 = fieldNorm(doc=1416)
        0.017790494 = product of:
          0.03558099 = sum of:
            0.03558099 = weight(_text_:22 in 1416) [ClassicSimilarity], result of:
              0.03558099 = score(doc=1416,freq=2.0), product of:
                0.15327339 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043769516 = queryNorm
                0.23214069 = fieldWeight in 1416, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1416)
          0.5 = coord(1/2)
      0.5 = coord(2/4)
    
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  4. Gervereau, L.: Voir, comprendre, analyser les images (1994) 0.03
    0.030558715 = product of:
      0.12223486 = sum of:
        0.12223486 = weight(_text_:l in 8758) [ClassicSimilarity], result of:
          0.12223486 = score(doc=8758,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.70262593 = fieldWeight in 8758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.125 = fieldNorm(doc=8758)
      0.25 = coord(1/4)
    
  5. Farrow, J.: All in the mind : concept analysis in indexing (1995) 0.03
    0.030077666 = product of:
      0.120310664 = sum of:
        0.120310664 = weight(_text_:van in 2926) [ClassicSimilarity], result of:
          0.120310664 = score(doc=2926,freq=2.0), product of:
            0.24408463 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.043769516 = queryNorm
            0.49290553 = fieldWeight in 2926, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=2926)
      0.25 = coord(1/4)
    
    Abstract
    The indexing process consists of the comprehension of the document to be indexed, followed by the production of a set of index terms. Differences between academic indexing and back-of-the-book indexing are discussed. Text comprehension is a branch of human information processing, and it is argued that the model of text comprehension and production debeloped by van Dijk and Kintsch can form the basis for a cognitive process model of indexing. Strategies for testing such a model are suggested
  6. Belkin, N.J.: ¬The problem of 'matching' in information retrieval (1980) 0.02
    0.022919035 = product of:
      0.09167614 = sum of:
        0.09167614 = weight(_text_:l in 1329) [ClassicSimilarity], result of:
          0.09167614 = score(doc=1329,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.52696943 = fieldWeight in 1329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.09375 = fieldNorm(doc=1329)
      0.25 = coord(1/4)
    
    Source
    Theory and application of information research. Proc. of the 2nd Int. Research Forum on Information Science, 3.-6.8.1977, Copenhagen. Ed.: O. Harbo u. L. Kajberg
  7. Vieira, L.: Modèle d'analyse pur une classification du document iconographique (1999) 0.02
    0.019099196 = product of:
      0.076396786 = sum of:
        0.076396786 = weight(_text_:l in 6320) [ClassicSimilarity], result of:
          0.076396786 = score(doc=6320,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.4391412 = fieldWeight in 6320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.078125 = fieldNorm(doc=6320)
      0.25 = coord(1/4)
    
  8. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.02
    0.016686276 = product of:
      0.0667451 = sum of:
        0.0667451 = sum of:
          0.019303782 = weight(_text_:der in 251) [ClassicSimilarity], result of:
            0.019303782 = score(doc=251,freq=2.0), product of:
              0.09777089 = queryWeight, product of:
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.043769516 = queryNorm
              0.19743896 = fieldWeight in 251, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.2337668 = idf(docFreq=12875, maxDocs=44218)
                0.0625 = fieldNorm(doc=251)
          0.047441322 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
            0.047441322 = score(doc=251,freq=2.0), product of:
              0.15327339 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043769516 = queryNorm
              0.30952093 = fieldWeight in 251, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0625 = fieldNorm(doc=251)
      0.25 = coord(1/4)
    
    Date
    22. 5.2021 12:43:05
  9. From information to knowledge : conceptual and content analysis by computer (1995) 0.02
    0.016540391 = product of:
      0.066161565 = sum of:
        0.066161565 = weight(_text_:l in 5392) [ClassicSimilarity], result of:
          0.066161565 = score(doc=5392,freq=6.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.38030747 = fieldWeight in 5392, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5392)
      0.25 = coord(1/4)
    
    Content
    SCHMIDT, K.M.: Concepts - content - meaning: an introduction; DUCHASTEL, J. et al.: The SACAO project: using computation toward textual data analysis; PAQUIN, L.-C. u. L. DUPUY: An approach to expertise transfer: computer-assisted text analysis; HOGENRAAD, R., Y. BESTGEN u. J.-L. NYSTEN: Terrorist rhetoric: texture and architecture; MOHLER, P.P.: On the interaction between reading and computing: an interpretative approach to content analysis; LANCASHIRE, I.: Computer tools for cognitive stylistics; MERGENTHALER, E.: An outline of knowledge based text analysis; NAMENWIRTH, J.Z.: Ideography in computer-aided content analysis; WEBER, R.P. u. J.Z. Namenwirth: Content-analytic indicators: a self-critique; McKINNON, A.: Optimizing the aberrant frequency word technique; ROSATI, R.: Factor analysis in classical archaeology: export patterns of Attic pottery trade; PETRILLO, P.S.: Old and new worlds: ancient coinage and modern technology; DARANYI, S., S. MARJAI u.a.: Caryatids and the measurement of semiosis in architecture; ZARRI, G.P.: Intelligent information retrieval: an application in the field of historical biographical data; BOUCHARD, G., R. ROY u.a.: Computers and genealogy: from family reconstitution to population reconstruction; DEMÉLAS-BOHY, M.-D. u. M. RENAUD: Instability, networks and political parties: a political history expert system prototype; DARANYI, S., A. ABRANYI u. G. KOVACS: Knowledge extraction from ethnopoetic texts by multivariate statistical methods; FRAUTSCHI, R.L.: Measures of narrative voice in French prose fiction applied to textual samples from the enlightenment to the twentieth century; DANNENBERG, R. u.a.: A project in computer music: the musician's workbench
  10. Beghtol, C.: ¬The classification of fiction : the development of a system based on theoretical principles (1994) 0.01
    0.013369438 = product of:
      0.053477753 = sum of:
        0.053477753 = weight(_text_:l in 3413) [ClassicSimilarity], result of:
          0.053477753 = score(doc=3413,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.30739886 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3413)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Knowledge organization 21(1994) no.3, S.165-167 (W. Bies); JASIS 46(1995) no.5, S.389-390 (E.G. Bierbaum); Canadian journal of information and library science 20(1995) nos.3/4, S.52-53 (L. Rees-Potter)
  11. Marshall, L.: Specific and generic subject headings : increasing subject access to library materials (2003) 0.01
    0.013369438 = product of:
      0.053477753 = sum of:
        0.053477753 = weight(_text_:l in 5497) [ClassicSimilarity], result of:
          0.053477753 = score(doc=5497,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.30739886 = fieldWeight in 5497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5497)
      0.25 = coord(1/4)
    
  12. Xie, H.; Li, X.; Wang, T.; Lau, R.Y.K.; Wong, T.-L.; Chen, L.; Wang, F.L.; Li, Q.: Incorporating sentiment into tag-based user profiles and resource profiles for personalized search in folksonomy (2016) 0.01
    0.010804137 = product of:
      0.04321655 = sum of:
        0.04321655 = weight(_text_:l in 2671) [ClassicSimilarity], result of:
          0.04321655 = score(doc=2671,freq=4.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.24841578 = fieldWeight in 2671, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.03125 = fieldNorm(doc=2671)
      0.25 = coord(1/4)
    
  13. Hoover, L.: ¬A beginners' guide for subject analysis of theses and dissertations in the hard sciences (2005) 0.01
    0.009549598 = product of:
      0.038198393 = sum of:
        0.038198393 = weight(_text_:l in 5740) [ClassicSimilarity], result of:
          0.038198393 = score(doc=5740,freq=2.0), product of:
            0.17396861 = queryWeight, product of:
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.043769516 = queryNorm
            0.2195706 = fieldWeight in 5740, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9746525 = idf(docFreq=2257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5740)
      0.25 = coord(1/4)
    
  14. Nohr, H.: Inhaltsanalyse (1999) 0.01
    0.006824918 = product of:
      0.027299672 = sum of:
        0.027299672 = product of:
          0.054599345 = sum of:
            0.054599345 = weight(_text_:der in 3430) [ClassicSimilarity], result of:
              0.054599345 = score(doc=3430,freq=16.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.5584417 = fieldWeight in 3430, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3430)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
  15. Beghtol, C.: Toward a theory of fiction analysis for information storage and retrieval (1992) 0.01
    0.0059301653 = product of:
      0.023720661 = sum of:
        0.023720661 = product of:
          0.047441322 = sum of:
            0.047441322 = weight(_text_:22 in 5830) [ClassicSimilarity], result of:
              0.047441322 = score(doc=5830,freq=2.0), product of:
                0.15327339 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043769516 = queryNorm
                0.30952093 = fieldWeight in 5830, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5830)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    5. 8.2006 13:22:08
  16. Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985) 0.01
    0.005910552 = product of:
      0.023642208 = sum of:
        0.023642208 = product of:
          0.047284417 = sum of:
            0.047284417 = weight(_text_:der in 2924) [ClassicSimilarity], result of:
              0.047284417 = score(doc=2924,freq=12.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.4836247 = fieldWeight in 2924, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2924)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
  17. Volpers, H.: Inhaltsanalyse (2013) 0.01
    0.0055861105 = product of:
      0.022344442 = sum of:
        0.022344442 = product of:
          0.044688884 = sum of:
            0.044688884 = weight(_text_:der in 1018) [ClassicSimilarity], result of:
              0.044688884 = score(doc=1018,freq=14.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.4570776 = fieldWeight in 1018, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1018)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Der Begriff Inhaltsanalyse wird je nach wissenschaftlicher Provenienz oder Bedeutungszusammenhang unterschiedlich definiert: Innerhalb der bibliothekarischen Praxis wird die Erfassung des Inhaltes eines vorliegenden Dokumentes für die Zwecke der Indexierung als Inhaltsanalyse bezeichnet, philologische Textinterpretationen oder sprachwissenschaftliche Textanalysen werden gelegentlich als Inhaltsanalysen etikettiert, ebenso die Interpretation von Interviewaussagen in der Psychologie und qualitativen Sozialforschung. Der vorliegende Beitrag bezieht sich explizit auf die sozialwissenschaftliche Methode der systematischen Inhaltsanalyse. Allerdings ist auch durch diese Eingrenzung noch keine hinreichende definitorische Klarheit geschaffen, da eine Unterscheidung in qualitative und quantitative Verfahren vorzunehmen ist.
    Source
    Handbuch Methoden der Bibliotheks- und Informationswissenschaft: Bibliotheks-, Benutzerforschung, Informationsanalyse. Hrsg.: K. Umlauf, S. Fühles-Ubach u. M.S. Seadle
  18. Raieli, R.: ¬The semantic hole : enthusiasm and caution around multimedia information retrieval (2012) 0.01
    0.005241575 = product of:
      0.0209663 = sum of:
        0.0209663 = product of:
          0.0419326 = sum of:
            0.0419326 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.0419326 = score(doc=4888,freq=4.0), product of:
                0.15327339 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043769516 = queryNorm
                0.27358043 = fieldWeight in 4888, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Date
    22. 1.2012 13:02:10
    Source
    Knowledge organization. 39(2012) no.1, S.13-22
  19. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.01
    0.0051892945 = product of:
      0.020757178 = sum of:
        0.020757178 = product of:
          0.041514356 = sum of:
            0.041514356 = weight(_text_:der in 2061) [ClassicSimilarity], result of:
              0.041514356 = score(doc=2061,freq=148.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.42460853 = fieldWeight in 2061, product of:
                  12.165525 = tf(freq=148.0), with freq of:
                    148.0 = termFreq=148.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.015625 = fieldNorm(doc=2061)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
    Content
    "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
    Das eigentlich Überraschende bei der Untersuchung der von den RSWK zur Illustration ihrer Auflagen selbst angegebenen Beispiele ist aber etwas ganz anderes: Die RSWK-Beispiele demonstrieren mit wenigen Ausnahmen immer eine angemessene Inhaltsanalyse, äußerst problematisch ist jedoch häufig die Repräsentation dieser Ergebnisse in den Schlagwörtern bzw. Schlagwortketten. Hieraus lassen sich sowohl für das Problem der Inhaltsanalyse als auch für die RSWK verschiedene Schlüsse ziehen: So schwierig die Inhaltsanalyse als theoretisches Konzept auch sein mag, so wenig bereitet es fachwissenschaftlich geschulten Indexierern offensichtlich Probleme, die Inhalte von Dokumenten angemessen zu beschreiben. Hier liegt die Vermutung nahe, daß für eine aus inhaltsanalytischer Sicht angemessene Beschreibung von Dokumenten eine langjährige Übung der Indexierer im generellen Umgang mit Texten entscheidender ist als das Vorhandensein eines schlüssigen Konzepts zur Inhaltsanalyse in einem Regelwerk zur Sacherschließung. Dies heißt nicht, daß damit ein schlüssiges Konzept für die Inhaltsanalyse obsolet würde, sondern betont vielmehr die Notwendigkeit einer angemessenen Berücksichtigung von inhaltsanalytischen Gesichtspunkten im Regelwerk einer Schlagwortkatalogisierung. Daß die RSWK entgegen ihrem Anspruch, mit den Schlagwortketten informative Kurz-Abstracts zu liefern, in ihrer Dokumentenbeschreibung in einigen Fällen zu wenig informativ sind, hängt mit einem falsch verstandenen Anspruch von Präzision zusammen, der sich in der Praxis des engen Schlagworts verkörpert. In den in dieser Arbeit behandelten Fällen mangelt es den Beschreibungen zu einem Dokument aufgrund einer zu spezifischen Sacherschließung an wichtigem Orientierungswissen für den Benutzer, das sich in der Regel in den Verweisungen der Schlagwortnormdatei verbirgt. Die Einordnung von Dokumenten in einen größeren systematischen Zusammenhang, was sich beispielsweise auch durch die Vergabe von im Dokument nicht vorkommenden Oberbegriffen realisieren läßt, ist ein wichtiges Anliegen der Inhaltsanalyse, das natürlich ebenso Konsequenzen für die Suchbarkeit der Dokumente hat.
    Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
  20. Knautz, K.; Dröge, E.; Finkelmeyer, S.; Guschauski, D.; Juchem, K.; Krzmyk, C.; Miskovic, D.; Schiefer, J.; Sen, E.; Verbina, J.; Werner, N.; Stock, W.G.: Indexieren von Emotionen bei Videos (2010) 0.01
    0.0051186886 = product of:
      0.020474754 = sum of:
        0.020474754 = product of:
          0.04094951 = sum of:
            0.04094951 = weight(_text_:der in 3637) [ClassicSimilarity], result of:
              0.04094951 = score(doc=3637,freq=16.0), product of:
                0.09777089 = queryWeight, product of:
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.043769516 = queryNorm
                0.4188313 = fieldWeight in 3637, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  2.2337668 = idf(docFreq=12875, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3637)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun tionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.

Years

Languages

  • d 19
  • e 16
  • f 2

Types

  • a 21
  • m 9
  • x 5
  • el 2
  • d 1
  • s 1
  • More… Less…