Search (104 results, page 2 of 6)

  • × theme_ss:"Inhaltsanalyse"
  1. Chen, S.-J.; Lee, H.-L.: Art images and mental associations : a preliminary exploration (2014) 0.00
    0.0019651123 = product of:
      0.029476684 = sum of:
        0.029476684 = sum of:
          0.005919926 = weight(_text_:information in 1416) [ClassicSimilarity], result of:
            0.005919926 = score(doc=1416,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.116372846 = fieldWeight in 1416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.046875 = fieldNorm(doc=1416)
          0.023556758 = weight(_text_:22 in 1416) [ClassicSimilarity], result of:
            0.023556758 = score(doc=1416,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.23214069 = fieldWeight in 1416, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=1416)
      0.06666667 = coord(1/15)
    
    Abstract
    This paper reports on the preliminary findings of a study that explores mental associations made by novices viewing art images. In a controlled environment, 20 Taiwanese college students responded to the question "What does the painting remind you of?" after viewing each digitized image of 15 oil paintings by a famous Taiwanese artist. Rather than focusing on the representation or interpretation of art, the study attempted to solicit information about how non-experts are stimulated by art. This paper reports on the analysis of participant responses to three of the images, and describes a12-type taxonomy of association emerged from the analysis. While 9 of the types are derived and adapted from facets in the Art & Architecture Thesaurus, three new types - Artistic Influence Association, Reactive Association, and Prototype Association - are discovered. The conclusion briefly discusses both the significance of the findings and the implications for future research.
    Source
    Knowledge organization in the 21st century: between historical patterns and future prospects. Proceedings of the Thirteenth International ISKO Conference 19-22 May 2014, Kraków, Poland. Ed.: Wieslaw Babik
  2. White, M.D.; Marsh, E.E.: Content analysis : a flexible methodology (2006) 0.00
    0.0019651123 = product of:
      0.029476684 = sum of:
        0.029476684 = sum of:
          0.005919926 = weight(_text_:information in 5589) [ClassicSimilarity], result of:
            0.005919926 = score(doc=5589,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.116372846 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
          0.023556758 = weight(_text_:22 in 5589) [ClassicSimilarity], result of:
            0.023556758 = score(doc=5589,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.23214069 = fieldWeight in 5589, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.046875 = fieldNorm(doc=5589)
      0.06666667 = coord(1/15)
    
    Abstract
    Content analysis is a highly flexible research method that has been widely used in library and information science (LIS) studies with varying research goals and objectives. The research method is applied in qualitative, quantitative, and sometimes mixed modes of research frameworks and employs a wide range of analytical techniques to generate findings and put them into context. This article characterizes content analysis as a systematic, rigorous approach to analyzing documents obtained or generated in the course of research. It briefly describes the steps involved in content analysis, differentiates between quantitative and qualitative content analysis, and shows that content analysis serves the purposes of both quantitative research and qualitative research. The authors draw on selected LIS studies that have used content analysis to illustrate the concepts addressed in the article. The article also serves as a gateway to methodological books and articles that provide more detail about aspects of content analysis discussed only briefly in the article.
    Source
    Library trends. 55(2006) no.1, S.22-45
  3. Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985) 0.00
    0.0016775922 = product of:
      0.025163881 = sum of:
        0.025163881 = weight(_text_:und in 2924) [ClassicSimilarity], result of:
          0.025163881 = score(doc=2924,freq=8.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.39180204 = fieldWeight in 2924, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2924)
      0.06666667 = coord(1/15)
    
    Abstract
    Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
    Source
    Sprache und Datenverarbeitung. 9(1985), S.5-10
  4. Chen, H.; Ng, T.: ¬An algorithmic approach to concept exploration in a large knowledge network (automatic thesaurus consultation) : symbolic branch-and-bound search versus connectionist Hopfield Net Activation (1995) 0.00
    0.0016528559 = product of:
      0.0123964185 = sum of:
        0.009436456 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.009436456 = score(doc=2203,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.14692576 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2203)
        0.002959963 = product of:
          0.005919926 = sum of:
            0.005919926 = weight(_text_:information in 2203) [ClassicSimilarity], result of:
              0.005919926 = score(doc=2203,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.116372846 = fieldWeight in 2203, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2203)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Source
    Journal of the American Society for Information Science. 46(1995) no.5, S.348-369
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Hildebrandt, B.; Moratz, R.; Rickheit, G.; Sagerer, G.: Kognitive Modellierung von Sprach- und Bildverstehen (1996) 0.00
    0.0012581941 = product of:
      0.018872911 = sum of:
        0.018872911 = weight(_text_:und in 7292) [ClassicSimilarity], result of:
          0.018872911 = score(doc=7292,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.29385152 = fieldWeight in 7292, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=7292)
      0.06666667 = coord(1/15)
    
  6. Mayring, P.: Qualitative Inhaltsanalyse : Grundlagen und Techniken (1990) 0.00
    0.0010484952 = product of:
      0.015727427 = sum of:
        0.015727427 = weight(_text_:und in 34) [ClassicSimilarity], result of:
          0.015727427 = score(doc=34,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.24487628 = fieldWeight in 34, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=34)
      0.06666667 = coord(1/15)
    
  7. Schulzki-Haddouti, C.; Brückner, A.: ¬Die Suche nach dem Sinn : Automatische Inhaltsanalyse nicht nur für Geheimdienste (2001) 0.00
    0.0010484952 = product of:
      0.015727427 = sum of:
        0.015727427 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.015727427 = score(doc=3133,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.24487628 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3133)
      0.06666667 = coord(1/15)
    
    Abstract
    Die Geheimdienste stehen vor einer Informationsflut, die sie mit herkömmlichen Mitteln nicht bewältigen können. Neue Möglichkeiten, die in Software-Projekten unter BND-Beteiligung entstanden, sollen das Defizit beseitigen und beliebig verknüpfte Informationen der analyse zugänglich machen
  8. Sauperl, A.: Subject determination during the cataloging process : the development of a system based on theoretical principles (2002) 0.00
    9.825561E-4 = product of:
      0.014738342 = sum of:
        0.014738342 = sum of:
          0.002959963 = weight(_text_:information in 2293) [ClassicSimilarity], result of:
            0.002959963 = score(doc=2293,freq=2.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.058186423 = fieldWeight in 2293, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2293)
          0.011778379 = weight(_text_:22 in 2293) [ClassicSimilarity], result of:
            0.011778379 = score(doc=2293,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.116070345 = fieldWeight in 2293, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0234375 = fieldNorm(doc=2293)
      0.06666667 = coord(1/15)
    
    Date
    27. 9.2005 14:22:19
    Footnote
    This document will be particularly useful to subject cataloguing teachers and trainers who could use the model to design case descriptions and exercises. We believe it is an accurate description of the reality of subject cataloguing today. But now that we know how things are dope, the next interesting question may be: Is that the best way? Is there a better, more efficient, way to do things? We can only hope that Dr. Sauperl will soon provide her own view of methods and techniques that could improve the flow of work or address the cataloguers' concern as to the lack of feedback an their work. Her several excellent suggestions for further research in this area all build an bits and pieces of what is done already, and stay well away from what could be done by the various actors in the area, from the designers of controlled vocabularies and authority files to those who use these tools an a daily basis to index, classify, or search for information."
  9. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.00
    9.378026E-4 = product of:
      0.014067038 = sum of:
        0.014067038 = weight(_text_:und in 2061) [ClassicSimilarity], result of:
          0.014067038 = score(doc=2061,freq=40.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.219024 = fieldWeight in 2061, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2061)
      0.06666667 = coord(1/15)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
    Content
    "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
    Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
  10. Weimer, K.H.: ¬The nexus of subject analysis and bibliographic description : the case of multipart videos (1996) 0.00
    7.852253E-4 = product of:
      0.011778379 = sum of:
        0.011778379 = product of:
          0.023556758 = sum of:
            0.023556758 = weight(_text_:22 in 6525) [ClassicSimilarity], result of:
              0.023556758 = score(doc=6525,freq=2.0), product of:
                0.101476215 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028978055 = queryNorm
                0.23214069 = fieldWeight in 6525, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6525)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Cataloging and classification quarterly. 22(1996) no.2, S.5-18
  11. Allen, B.; Reser, D.: Content analysis in library and information science research (1990) 0.00
    7.441813E-4 = product of:
      0.011162719 = sum of:
        0.011162719 = product of:
          0.022325438 = sum of:
            0.022325438 = weight(_text_:information in 7510) [ClassicSimilarity], result of:
              0.022325438 = score(doc=7510,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.43886948 = fieldWeight in 7510, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.125 = fieldNorm(doc=7510)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Library and information science research. 12(1990) no.3, S.251-262
  12. Langridge, D.W.: Subject analysis : principles and procedures (1989) 0.00
    7.3394657E-4 = product of:
      0.011009198 = sum of:
        0.011009198 = weight(_text_:und in 2021) [ClassicSimilarity], result of:
          0.011009198 = score(doc=2021,freq=2.0), product of:
            0.06422601 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028978055 = queryNorm
            0.17141339 = fieldWeight in 2021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2021)
      0.06666667 = coord(1/15)
    
    Footnote
    Enthält Empfehlungen zur Vorgehensweise bei der Inhaltsanalyse und diskutiert Beispiele // Eine deutsche Übersetzung ist 1994 im Saur Verlag erschienen. - Rez. in: Knowledge organization 20(1993) no.2, S.98-99. (M.P. Satija)
  13. Bade, D.: ¬The creation and persistence of misinformation in shared library catalogs : language and subject knowledge in a technological era (2002) 0.00
    7.0952886E-4 = product of:
      0.010642933 = sum of:
        0.010642933 = sum of:
          0.0027906797 = weight(_text_:information in 1858) [ClassicSimilarity], result of:
            0.0027906797 = score(doc=1858,freq=4.0), product of:
              0.050870337 = queryWeight, product of:
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.028978055 = queryNorm
              0.054858685 = fieldWeight in 1858, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.7554779 = idf(docFreq=20772, maxDocs=44218)
                0.015625 = fieldNorm(doc=1858)
          0.0078522535 = weight(_text_:22 in 1858) [ClassicSimilarity], result of:
            0.0078522535 = score(doc=1858,freq=2.0), product of:
              0.101476215 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.028978055 = queryNorm
              0.07738023 = fieldWeight in 1858, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.015625 = fieldNorm(doc=1858)
      0.06666667 = coord(1/15)
    
    Date
    22. 9.1997 19:16:05
    Footnote
    Bade begins his discussion of errors in subject analysis by summarizing the contents of seven records containing what he considers to be egregious errors. The examples were drawn only from items that he has encountered in the course of his work. Five of the seven records were full-level ("I" level) records for Eastern European materials created between 1996 and 2000 in the OCLC WorldCat database. The final two examples were taken from records created by Bade himself over an unspecified period of time. Although he is to be commended for examining the actual items cataloged and for examining mostly items that he claims to have adequate linguistic and subject expertise to evaluate reliably, Bade's methodology has major flaws. First and foremost, the number of examples provided is completely inadequate to draw any conclusions about the extent of the problem. Although an in-depth qualitative analysis of a small number of records might have yielded some valuable insight into factors that contribute to errors in subject analysis, Bade provides no Information about the circumstances under which the live OCLC records he critiques were created. Instead, he offers simplistic explanations for the errors based solely an his own assumptions. He supplements his analysis of examples with an extremely brief survey of other studies regarding errors in subject analysis, which consists primarily of criticism of work done by Sheila Intner. In the end, it is impossible to draw any reliable conclusions about the nature or extent of errors in subject analysis found in records in shared bibliographic databases based an Bade's analysis. In the final third of the essay, Bade finally reveals his true concern: the deintellectualization of cataloging. It would strengthen the essay tremendously to present this as the primary premise from the very beginning, as this section offers glimpses of a compelling argument. Bade laments, "Many librarians simply do not sec cataloging as an intellectual activity requiring an educated mind" (p. 20). Commenting an recent trends in copy cataloging practice, he declares, "The disaster of our time is that this work is being done more and more by people who can neither evaluate nor correct imported errors and offen are forbidden from even thinking about it" (p. 26). Bade argues that the most valuable content found in catalog records is the intellectual content contributed by knowledgeable catalogers, and he asserts that to perform intellectually demanding tasks such as subject analysis reliably and effectively, catalogers must have the linguistic and subject knowledge required to gain at least a rudimentary understanding of the materials that they describe. He contends that requiring catalogers to quickly dispense with materials in unfamiliar languages and subjects clearly undermines their ability to perform the intellectual work of cataloging and leads to an increasing number of errors in the bibliographic records contributed to shared databases.
    Imprint
    Urbana-Champaign, IL : Illinois University at Urbana-Champaign, Graduate School of Library and Information Science
  14. Belkin, N.J.: ¬The problem of 'matching' in information retrieval (1980) 0.00
    6.8357424E-4 = product of:
      0.010253613 = sum of:
        0.010253613 = product of:
          0.020507226 = sum of:
            0.020507226 = weight(_text_:information in 1329) [ClassicSimilarity], result of:
              0.020507226 = score(doc=1329,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.40312737 = fieldWeight in 1329, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1329)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Theory and application of information research. Proc. of the 2nd Int. Research Forum on Information Science, 3.-6.8.1977, Copenhagen. Ed.: O. Harbo u. L. Kajberg
  15. Schlapfer, K.: ¬The information content of images (1995) 0.00
    6.8357424E-4 = product of:
      0.010253613 = sum of:
        0.010253613 = product of:
          0.020507226 = sum of:
            0.020507226 = weight(_text_:information in 521) [ClassicSimilarity], result of:
              0.020507226 = score(doc=521,freq=6.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.40312737 = fieldWeight in 521, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.09375 = fieldNorm(doc=521)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Reviews the methods of calculating the information content of images, with particular reference to the information content of printed and photographic images; and printed and television images
  16. Renouf, A.: Making sense of text : automated approaches to meaning extraction (1993) 0.00
    6.511586E-4 = product of:
      0.009767379 = sum of:
        0.009767379 = product of:
          0.019534757 = sum of:
            0.019534757 = weight(_text_:information in 7111) [ClassicSimilarity], result of:
              0.019534757 = score(doc=7111,freq=4.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3840108 = fieldWeight in 7111, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.109375 = fieldNorm(doc=7111)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Imprint
    Oxford : Learned Information
    Source
    Online information 93: 17th International Online Meeting Proceedings, London, 7.-9.12.1993. Ed. by D.I. Raitt et al
  17. Morehead, D.R.; Pejtersen, A.M.; Rouse, W.B.: ¬The value of information and computer-aided information seeking : problem formulation and application to fiction retrieval (1984) 0.00
    5.6391995E-4 = product of:
      0.008458799 = sum of:
        0.008458799 = product of:
          0.016917598 = sum of:
            0.016917598 = weight(_text_:information in 5828) [ClassicSimilarity], result of:
              0.016917598 = score(doc=5828,freq=12.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3325631 = fieldWeight in 5828, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5828)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Issues concerning the formulation and application of a model of how humans value information are examined. Formulation of a value function is based on research from modelling, value assessment, human information seeking behavior, and human decision making. The proposed function is incorporated into a computer-based fiction retrieval system and evaluated using data from nine searches. Evaluation is based on the ability of an individual's value function to discriminate among novels selected, rejected, and not considered. The results are discussed in terms of both formulation and utilization of a value function as well as the implications for extending the proposed formulation to other information seeking environments
    Source
    Information processing and management. 20(1984), S.583-601
  18. Farrow, J.: Indexing as a cognitive process (1994) 0.00
    5.2621565E-4 = product of:
      0.0078932345 = sum of:
        0.0078932345 = product of:
          0.015786469 = sum of:
            0.015786469 = weight(_text_:information in 1257) [ClassicSimilarity], result of:
              0.015786469 = score(doc=1257,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3103276 = fieldWeight in 1257, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.125 = fieldNorm(doc=1257)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Encyclopedia of library and information science. Vol.53, [=Suppl.16]
  19. Kremer-Marietti, A.: Thematic analysis (1986) 0.00
    5.2621565E-4 = product of:
      0.0078932345 = sum of:
        0.0078932345 = product of:
          0.015786469 = sum of:
            0.015786469 = weight(_text_:information in 1273) [ClassicSimilarity], result of:
              0.015786469 = score(doc=1273,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3103276 = fieldWeight in 1273, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.125 = fieldNorm(doc=1273)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Encyclopedia of library and information science. Vol.41, [=Suppl.6]
  20. Baxendale, P.: Content analysis, specification and control (1966) 0.00
    5.2621565E-4 = product of:
      0.0078932345 = sum of:
        0.0078932345 = product of:
          0.015786469 = sum of:
            0.015786469 = weight(_text_:information in 218) [ClassicSimilarity], result of:
              0.015786469 = score(doc=218,freq=2.0), product of:
                0.050870337 = queryWeight, product of:
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.028978055 = queryNorm
                0.3103276 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.7554779 = idf(docFreq=20772, maxDocs=44218)
                  0.125 = fieldNorm(doc=218)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Annual review of information science and technology. 1(1966), S.71-106

Languages

  • e 81
  • d 23

Types

  • a 87
  • m 9
  • x 5
  • el 3
  • d 2
  • s 1
  • More… Less…