Search (104 results, page 1 of 6)

  • × theme_ss:"Inhaltsanalyse"
  1. Mayring, P.: Qualitative Inhaltsanalyse : Grundlagen und Techniken (1990) 0.06
    0.057870325 = product of:
      0.1446758 = sum of:
        0.025570497 = weight(_text_:und in 34) [ClassicSimilarity], result of:
          0.025570497 = score(doc=34,freq=2.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.24487628 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=34)
        0.11910531 = product of:
          0.23821062 = sum of:
            0.23821062 = weight(_text_:kommunikation in 34) [ClassicSimilarity], result of:
              0.23821062 = score(doc=34,freq=6.0), product of:
                0.24217154 = queryWeight, product of:
                  5.140109 = idf(docFreq=703, maxDocs=44218)
                  0.047114085 = queryNorm
                0.9836441 = fieldWeight in 34, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.140109 = idf(docFreq=703, maxDocs=44218)
                  0.078125 = fieldNorm(doc=34)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    "Inhaltsanalyse will: Kommunikation analysieren, fixierte Kommunikation analysieren, dabei systematisch vorgehen, das heißt regelgeleitet vorgehen, das heißt auch theoriegeleitet vorgehen, mit dem Ziel, Rückschlüsse auf bestimmte Aspekte der Kommunikation zu ziehen" (S.11)
  2. Piekara, F.H.: Wie idiosynkratisch ist Wissen? : Individuelle Unterschiede im Assoziieren und bei der Anlage und Nutzung von Informationssystemen (1988) 0.03
    0.026782313 = product of:
      0.06695578 = sum of:
        0.012833246 = weight(_text_:information in 2537) [ClassicSimilarity], result of:
          0.012833246 = score(doc=2537,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.1551638 = fieldWeight in 2537, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=2537)
        0.054122537 = weight(_text_:und in 2537) [ClassicSimilarity], result of:
          0.054122537 = score(doc=2537,freq=14.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.51830536 = fieldWeight in 2537, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2537)
      0.4 = coord(2/5)
    
    Abstract
    Gegenstand dieser Arbeit sind die Unterschiede im Wissen zwischen Personen. Um eine Bestimmung der bestehenden Unterschiede im alltäglichen Wissen zwischen Personen vornehmen zu können, wird der begriff "Wissen" expliziert, der Beitrag verschiedener Wissensrepräsentationskonzeptionen zur Beschreibung von Wissen und somit von Wissensunterschieden diskutiert und schließlich verschiedene Methoden zur Bestimmung von Wissen und Wissensunterschieden aus dem Verhalten dargstellt und bewertet. Durch den inter- und Intraindividuellen Vergleich von Assoziationen wird das Ausmaß an Unterschieden im Wissen zwischen 2 Personen auf 24-27% geschätzt
    Theme
    Information
  3. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.03
    0.026578411 = product of:
      0.06644603 = sum of:
        0.040912796 = weight(_text_:und in 251) [ClassicSimilarity], result of:
          0.040912796 = score(doc=251,freq=8.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.39180204 = fieldWeight in 251, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=251)
        0.025533231 = product of:
          0.051066462 = sum of:
            0.051066462 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.051066462 = score(doc=251,freq=2.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.
    Date
    22. 5.2021 12:43:05
  4. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.03
    0.025057776 = product of:
      0.06264444 = sum of:
        0.019249868 = weight(_text_:information in 213) [ClassicSimilarity], result of:
          0.019249868 = score(doc=213,freq=8.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.23274569 = fieldWeight in 213, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=213)
        0.043394573 = weight(_text_:und in 213) [ClassicSimilarity], result of:
          0.043394573 = score(doc=213,freq=16.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.41556883 = fieldWeight in 213, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=213)
      0.4 = coord(2/5)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
  5. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.02
    0.022029344 = product of:
      0.055073358 = sum of:
        0.01122909 = weight(_text_:information in 1784) [ClassicSimilarity], result of:
          0.01122909 = score(doc=1784,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.13576832 = fieldWeight in 1784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1784)
        0.043844268 = weight(_text_:und in 1784) [ClassicSimilarity], result of:
          0.043844268 = score(doc=1784,freq=12.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.41987535 = fieldWeight in 1784, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1784)
      0.4 = coord(2/5)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
  6. Pejtersen, A.M.: Design of a classification scheme for fiction based on an analysis of actual user-librarian communication, and use of the scheme for control of librarians' search strategies (1980) 0.02
    0.021841092 = product of:
      0.054602727 = sum of:
        0.022686187 = weight(_text_:information in 5835) [ClassicSimilarity], result of:
          0.022686187 = score(doc=5835,freq=4.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.27429342 = fieldWeight in 5835, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=5835)
        0.03191654 = product of:
          0.06383308 = sum of:
            0.06383308 = weight(_text_:22 in 5835) [ClassicSimilarity], result of:
              0.06383308 = score(doc=5835,freq=2.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.38690117 = fieldWeight in 5835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5835)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    5. 8.2006 13:22:44
    Source
    Theory and application of information research. Proc. of the 2nd Int. Research Forum on Information Science, 3.-6.8.1977, Copenhagen. Ed.: O. Harbo u, L. Kajberg
  7. Nohr, H.: Inhaltsanalyse (1999) 0.02
    0.019305905 = product of:
      0.048264764 = sum of:
        0.012833246 = weight(_text_:information in 3430) [ClassicSimilarity], result of:
          0.012833246 = score(doc=3430,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.1551638 = fieldWeight in 3430, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3430)
        0.03543152 = weight(_text_:und in 3430) [ClassicSimilarity], result of:
          0.03543152 = score(doc=3430,freq=6.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.33931053 = fieldWeight in 3430, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3430)
      0.4 = coord(2/5)
    
    Abstract
    Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.2, S.69-78
  8. Knautz, K.; Dröge, E.; Finkelmeyer, S.; Guschauski, D.; Juchem, K.; Krzmyk, C.; Miskovic, D.; Schiefer, J.; Sen, E.; Verbina, J.; Werner, N.; Stock, W.G.: Indexieren von Emotionen bei Videos (2010) 0.02
    0.019167254 = product of:
      0.047918133 = sum of:
        0.0136117125 = weight(_text_:information in 3637) [ClassicSimilarity], result of:
          0.0136117125 = score(doc=3637,freq=4.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.16457605 = fieldWeight in 3637, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=3637)
        0.034306422 = weight(_text_:und in 3637) [ClassicSimilarity], result of:
          0.034306422 = score(doc=3637,freq=10.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.328536 = fieldWeight in 3637, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3637)
      0.4 = coord(2/5)
    
    Abstract
    Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun tionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.4, S.221-236
  9. Raieli, R.: ¬The semantic hole : enthusiasm and caution around multimedia information retrieval (2012) 0.02
    0.016886085 = product of:
      0.042215213 = sum of:
        0.019646814 = weight(_text_:information in 4888) [ClassicSimilarity], result of:
          0.019646814 = score(doc=4888,freq=12.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.23754507 = fieldWeight in 4888, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4888)
        0.022568401 = product of:
          0.045136802 = sum of:
            0.045136802 = weight(_text_:22 in 4888) [ClassicSimilarity], result of:
              0.045136802 = score(doc=4888,freq=4.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.27358043 = fieldWeight in 4888, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4888)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    This paper centres on the tools for the management of new digital documents, which are not only textual, but also visual-video, audio or multimedia in the full sense. Among the aims is to demonstrate that operating within the terms of generic Information Retrieval through textual language only is limiting, and it is instead necessary to consider ampler criteria, such as those of MultiMedia Information Retrieval, according to which, every type of digital document can be analyzed and searched by the proper elements of language for its proper nature. MMIR is presented as the organic complex of the systems of Text Retrieval, Visual Retrieval, Video Retrieval, and Audio Retrieval, each of which has an approach to information management that handles the concrete textual, visual, audio, or video content of the documents directly, here defined as content-based. In conclusion, the limits of this content-based objective access to documents is underlined. The discrepancy known as the semantic gap is that which occurs between semantic-interpretive access and content-based access. Finally, the integration of these conceptions is explained, gathering and composing the merits and the advantages of each of the approaches and of the systems to access to information.
    Date
    22. 1.2012 13:02:10
    Footnote
    Bezugnahme auf: Enser, P.G.B.: Visual image retrieval. In: Annual review of information science and technology. 42(2008), S.3-42.
    Source
    Knowledge organization. 39(2012) no.1, S.13-22
  10. Beghtol, C.: Toward a theory of fiction analysis for information storage and retrieval (1992) 0.02
    0.015346591 = product of:
      0.038366478 = sum of:
        0.012833246 = weight(_text_:information in 5830) [ClassicSimilarity], result of:
          0.012833246 = score(doc=5830,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.1551638 = fieldWeight in 5830, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=5830)
        0.025533231 = product of:
          0.051066462 = sum of:
            0.051066462 = weight(_text_:22 in 5830) [ClassicSimilarity], result of:
              0.051066462 = score(doc=5830,freq=2.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.30952093 = fieldWeight in 5830, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5830)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Date
    5. 8.2006 13:22:08
  11. Klüver, J.; Kier, R.: Rekonstruktion und Verstehen : ein Computer-Programm zur Interpretation sozialwissenschaftlicher Texte (1994) 0.01
    0.011571886 = product of:
      0.05785943 = sum of:
        0.05785943 = weight(_text_:und in 6830) [ClassicSimilarity], result of:
          0.05785943 = score(doc=6830,freq=4.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.55409175 = fieldWeight in 6830, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=6830)
      0.2 = coord(1/5)
    
    Source
    Sprache und Datenverarbeitung. 18(1994) H.1, S.3-15
  12. Chen, S.-J.; Lee, H.-L.: Art images and mental associations : a preliminary exploration (2014) 0.01
    0.011509943 = product of:
      0.028774858 = sum of:
        0.009624934 = weight(_text_:information in 1416) [ClassicSimilarity], result of:
          0.009624934 = score(doc=1416,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.116372846 = fieldWeight in 1416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=1416)
        0.019149924 = product of:
          0.038299847 = sum of:
            0.038299847 = weight(_text_:22 in 1416) [ClassicSimilarity], result of:
              0.038299847 = score(doc=1416,freq=2.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.23214069 = fieldWeight in 1416, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1416)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    This paper reports on the preliminary findings of a study that explores mental associations made by novices viewing art images. In a controlled environment, 20 Taiwanese college students responded to the question "What does the painting remind you of?" after viewing each digitized image of 15 oil paintings by a famous Taiwanese artist. Rather than focusing on the representation or interpretation of art, the study attempted to solicit information about how non-experts are stimulated by art. This paper reports on the analysis of participant responses to three of the images, and describes a12-type taxonomy of association emerged from the analysis. While 9 of the types are derived and adapted from facets in the Art & Architecture Thesaurus, three new types - Artistic Influence Association, Reactive Association, and Prototype Association - are discovered. The conclusion briefly discusses both the significance of the findings and the implications for future research.
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  13. White, M.D.; Marsh, E.E.: Content analysis : a flexible methodology (2006) 0.01
    0.011509943 = product of:
      0.028774858 = sum of:
        0.009624934 = weight(_text_:information in 5589) [ClassicSimilarity], result of:
          0.009624934 = score(doc=5589,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.116372846 = fieldWeight in 5589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=5589)
        0.019149924 = product of:
          0.038299847 = sum of:
            0.038299847 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
              0.038299847 = score(doc=5589,freq=2.0), product of:
                0.1649855 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.047114085 = queryNorm
                0.23214069 = fieldWeight in 5589, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5589)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Content analysis is a highly flexible research method that has been widely used in library and information science (LIS) studies with varying research goals and objectives. The research method is applied in qualitative, quantitative, and sometimes mixed modes of research frameworks and employs a wide range of analytical techniques to generate findings and put them into context. This article characterizes content analysis as a systematic, rigorous approach to analyzing documents obtained or generated in the course of research. It briefly describes the steps involved in content analysis, differentiates between quantitative and qualitative content analysis, and shows that content analysis serves the purposes of both quantitative research and qualitative research. The authors draw on selected LIS studies that have used content analysis to illustrate the concepts addressed in the article. The article also serves as a gateway to methodological books and articles that provide more detail about aspects of content analysis discussed only briefly in the article.
    Source
    Library trends. 55(2006) no.1, S.22-45
  14. Früh, W.: Inhaltsanalyse (2001) 0.01
    0.011481124 = product of:
      0.05740562 = sum of:
        0.05740562 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.05740562 = score(doc=1751,freq=28.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.54974586 = fieldWeight in 1751, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1751)
      0.2 = coord(1/5)
    
    Abstract
    Der Autor bietet eine theoretisch fundierte Anleitung zur praktischen Durchführung von Inhaltsanalysen. diskutiert u.a.: die Themen-Frequenzanalyse, die semantische Struktur- und Inhaltsanalyse und die computergestützte Inhaltsanalyse. Zahlreiche Beispiele erleichtern den Einstieg in diese Methode der empirischen Kommunikationsforschung
    BK
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    RVK
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
  15. Wersig, G.: Inhaltsanalyse : Einführung in ihre Systematik und Literatur (1968) 0.01
    0.010228199 = product of:
      0.051140994 = sum of:
        0.051140994 = weight(_text_:und in 2386) [ClassicSimilarity], result of:
          0.051140994 = score(doc=2386,freq=2.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.48975256 = fieldWeight in 2386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.15625 = fieldNorm(doc=2386)
      0.2 = coord(1/5)
    
  16. Chen, H.; Ng, T.: ¬An algorithmic approach to concept exploration in a large knowledge network (automatic thesaurus consultation) : symbolic branch-and-bound search versus connectionist Hopfield Net Activation (1995) 0.01
    0.009986892 = product of:
      0.02496723 = sum of:
        0.009624934 = weight(_text_:information in 2203) [ClassicSimilarity], result of:
          0.009624934 = score(doc=2203,freq=2.0), product of:
            0.08270773 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.047114085 = queryNorm
            0.116372846 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=2203)
        0.015342298 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.015342298 = score(doc=2203,freq=2.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.14692576 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2203)
      0.4 = coord(2/5)
    
    Source
    Journal of the American Society for Information Science. 46(1995) no.5, S.348-369
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Franke-Maier, M.; Harbeck, M.: Superman = Persepolis = Naruto? : Herausforderungen und Probleme der formalen und inhaltlichen Vielfalt von Comics und Comicforschung für die Regensburger Verbundklassifikation (2016) 0.01
    0.009703321 = product of:
      0.048516605 = sum of:
        0.048516605 = weight(_text_:und in 3306) [ClassicSimilarity], result of:
          0.048516605 = score(doc=3306,freq=20.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.46462005 = fieldWeight in 3306, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3306)
      0.2 = coord(1/5)
    
    Abstract
    Das populäre Medium Comic hat in den vergangenen Jahren zunehmend Interesse als wissenschaftliches Forschungsobjekt und damit auch als bibliothekarisches Sammlungsgut auf sich gezogen. Bibliotheken stehen vor der Aufgabe, die Primärquellen und vor allem die wissenschaftliche Forschungsliteratur zu Comics inhaltlich zu erschließen und nach wie vor auch systematisch zu präsentieren. Bis vor kurzem fand man in der in Deutschland am weitesten verbreiteten Klassifikation, der im Selbstverständnis wissenschaftsnahen Regensburger Verbundklassifikation, nur Einzelstellen in einzelnen Fachsystematiken und einen größeren Bereich in der Japanologie für das Phänomen Manga. Dieser Zustand war nicht ausreichend für eine differenzierte Aufstellung in Bibliotheken mit entsprechenden Beständen und Schwerpunkten. Der hier präsentierte RVK-Baum für Comics und Comicforschung wird diesem Desiderat gerecht und bietet eine Möglichkeit, Comicbestände adäquat klassifikatorisch abzubilden.
  18. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.009219575 = product of:
      0.04609787 = sum of:
        0.04609787 = weight(_text_:und in 2508) [ClassicSimilarity], result of:
          0.04609787 = score(doc=2508,freq=26.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.441457 = fieldWeight in 2508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2508)
      0.2 = coord(1/5)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  19. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.009219575 = product of:
      0.04609787 = sum of:
        0.04609787 = weight(_text_:und in 2871) [ClassicSimilarity], result of:
          0.04609787 = score(doc=2871,freq=26.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.441457 = fieldWeight in 2871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
      0.2 = coord(1/5)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  20. Scholz, O.R.: Bild, Darstellung, Zeichen : Philosophische Theorien bildlicher Darstellung (2004) 0.01
    0.009219575 = product of:
      0.04609787 = sum of:
        0.04609787 = weight(_text_:und in 1436) [ClassicSimilarity], result of:
          0.04609787 = score(doc=1436,freq=26.0), product of:
            0.10442211 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.047114085 = queryNorm
            0.441457 = fieldWeight in 1436, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1436)
      0.2 = coord(1/5)
    
    Abstract
    Bilder prägen zunehmend alle öffentlichen und privaten Lebensbereiche. Dieser "Bilderflut" steht eine große praktische und theoretische Inkompetenz gegenüber. Was sind Bilder? Wie stellen Bilder dar? Was heißt es, Bilder zu verstehen? Das Buch verbindet eine Untersuchung dieser Fragen mit einem kritischen Durchgang durch prominente Bildtheorien und arbeitet schrittweise eine Gebrauchstheorie bildhafter Darstellungen aus. In den kritischen Teilen zeigt sich: Ob ein Gegenstand als Bild fungiert, liegt weder allein in seinen inneren Eigenschaften noch in Ähnlichkeitsbeziehungen zu dargestellten Realitäten noch allein in seiner kausalen und intentionalen Entstehungsgeschichte begründet. Positiv ergibt sich: Etwas ist nur dann ein Bild, wenn es als Element eines analogen Zeichensystems im Rahmen besondere sozial geregelter Handlungs- und Interaktionsmuster ("Bildspiele") verwendet und verstanden wird. Das Buch, das sich seit seinem ersten Erscheinen im Jahre 1991 in Forschung und Lehre bew ährt hat, wurde für die Neuauflage vollständig überarbeitet und auf den neuesten Stand gebracht. Es richtet sich an alle, die mit Bildern und dem Verstehen von Bildern zu tun haben.
    Classification
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie
    RVK
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie

Languages

  • e 81
  • d 23

Types

  • a 87
  • m 9
  • x 5
  • el 3
  • d 2
  • s 1
  • More… Less…