Search (6 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Inhaltsanalyse"
  • × type_ss:"a"
  1. Knautz, K.; Dröge, E.; Finkelmeyer, S.; Guschauski, D.; Juchem, K.; Krzmyk, C.; Miskovic, D.; Schiefer, J.; Sen, E.; Verbina, J.; Werner, N.; Stock, W.G.: Indexieren von Emotionen bei Videos (2010) 0.02
    0.024895877 = product of:
      0.037343815 = sum of:
        0.027027493 = weight(_text_:im in 3637) [ClassicSimilarity], result of:
          0.027027493 = score(doc=3637,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 3637, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3637)
        0.0103163235 = product of:
          0.03094897 = sum of:
            0.03094897 = weight(_text_:retrieval in 3637) [ClassicSimilarity], result of:
              0.03094897 = score(doc=3637,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.20052543 = fieldWeight in 3637, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.046875 = fieldNorm(doc=3637)
          0.33333334 = coord(1/3)
      0.6666667 = coord(2/3)
    
    Abstract
    Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun tionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.
  2. Nohr, H.: Inhaltsanalyse (1999) 0.02
    0.016987845 = product of:
      0.050963532 = sum of:
        0.050963532 = weight(_text_:im in 3430) [ClassicSimilarity], result of:
          0.050963532 = score(doc=3430,freq=4.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.35334828 = fieldWeight in 3430, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.0625 = fieldNorm(doc=3430)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
  3. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 213) [ClassicSimilarity], result of:
          0.027027493 = score(doc=213,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=213)
      0.33333334 = coord(1/3)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
  4. Franke-Maier, M.; Harbeck, M.: Superman = Persepolis = Naruto? : Herausforderungen und Probleme der formalen und inhaltlichen Vielfalt von Comics und Comicforschung für die Regensburger Verbundklassifikation (2016) 0.01
    0.009009165 = product of:
      0.027027493 = sum of:
        0.027027493 = weight(_text_:im in 3306) [ClassicSimilarity], result of:
          0.027027493 = score(doc=3306,freq=2.0), product of:
            0.1442303 = queryWeight, product of:
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.051022716 = queryNorm
            0.18739122 = fieldWeight in 3306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.8267863 = idf(docFreq=7115, maxDocs=44218)
              0.046875 = fieldNorm(doc=3306)
      0.33333334 = coord(1/3)
    
    Abstract
    Das populäre Medium Comic hat in den vergangenen Jahren zunehmend Interesse als wissenschaftliches Forschungsobjekt und damit auch als bibliothekarisches Sammlungsgut auf sich gezogen. Bibliotheken stehen vor der Aufgabe, die Primärquellen und vor allem die wissenschaftliche Forschungsliteratur zu Comics inhaltlich zu erschließen und nach wie vor auch systematisch zu präsentieren. Bis vor kurzem fand man in der in Deutschland am weitesten verbreiteten Klassifikation, der im Selbstverständnis wissenschaftsnahen Regensburger Verbundklassifikation, nur Einzelstellen in einzelnen Fachsystematiken und einen größeren Bereich in der Japanologie für das Phänomen Manga. Dieser Zustand war nicht ausreichend für eine differenzierte Aufstellung in Bibliotheken mit entsprechenden Beständen und Schwerpunkten. Der hier präsentierte RVK-Baum für Comics und Comicforschung wird diesem Desiderat gerecht und bietet eine Möglichkeit, Comicbestände adäquat klassifikatorisch abzubilden.
  5. Krause, J.: Principles of content analysis for information retrieval systems : an overview (1996) 0.01
    0.008023808 = product of:
      0.024071421 = sum of:
        0.024071421 = product of:
          0.07221426 = sum of:
            0.07221426 = weight(_text_:retrieval in 5270) [ClassicSimilarity], result of:
              0.07221426 = score(doc=5270,freq=2.0), product of:
                0.15433937 = queryWeight, product of:
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.051022716 = queryNorm
                0.46789268 = fieldWeight in 5270, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.024915 = idf(docFreq=5836, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5270)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
  6. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.01
    0.006144777 = product of:
      0.01843433 = sum of:
        0.01843433 = product of:
          0.055302992 = sum of:
            0.055302992 = weight(_text_:22 in 251) [ClassicSimilarity], result of:
              0.055302992 = score(doc=251,freq=2.0), product of:
                0.17867287 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.051022716 = queryNorm
                0.30952093 = fieldWeight in 251, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=251)
          0.33333334 = coord(1/3)
      0.33333334 = coord(1/3)
    
    Date
    22. 5.2021 12:43:05