Document (#27062)

Author
Ackermann, A.
Title
Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK
Imprint
Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
Year
2001
Pages
68 S. + Anlagen.
Abstract
Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
Content
"Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
Das eigentlich Überraschende bei der Untersuchung der von den RSWK zur Illustration ihrer Auflagen selbst angegebenen Beispiele ist aber etwas ganz anderes: Die RSWK-Beispiele demonstrieren mit wenigen Ausnahmen immer eine angemessene Inhaltsanalyse, äußerst problematisch ist jedoch häufig die Repräsentation dieser Ergebnisse in den Schlagwörtern bzw. Schlagwortketten. Hieraus lassen sich sowohl für das Problem der Inhaltsanalyse als auch für die RSWK verschiedene Schlüsse ziehen: So schwierig die Inhaltsanalyse als theoretisches Konzept auch sein mag, so wenig bereitet es fachwissenschaftlich geschulten Indexierern offensichtlich Probleme, die Inhalte von Dokumenten angemessen zu beschreiben. Hier liegt die Vermutung nahe, daß für eine aus inhaltsanalytischer Sicht angemessene Beschreibung von Dokumenten eine langjährige Übung der Indexierer im generellen Umgang mit Texten entscheidender ist als das Vorhandensein eines schlüssigen Konzepts zur Inhaltsanalyse in einem Regelwerk zur Sacherschließung. Dies heißt nicht, daß damit ein schlüssiges Konzept für die Inhaltsanalyse obsolet würde, sondern betont vielmehr die Notwendigkeit einer angemessenen Berücksichtigung von inhaltsanalytischen Gesichtspunkten im Regelwerk einer Schlagwortkatalogisierung. Daß die RSWK entgegen ihrem Anspruch, mit den Schlagwortketten informative Kurz-Abstracts zu liefern, in ihrer Dokumentenbeschreibung in einigen Fällen zu wenig informativ sind, hängt mit einem falsch verstandenen Anspruch von Präzision zusammen, der sich in der Praxis des engen Schlagworts verkörpert. In den in dieser Arbeit behandelten Fällen mangelt es den Beschreibungen zu einem Dokument aufgrund einer zu spezifischen Sacherschließung an wichtigem Orientierungswissen für den Benutzer, das sich in der Regel in den Verweisungen der Schlagwortnormdatei verbirgt. Die Einordnung von Dokumenten in einen größeren systematischen Zusammenhang, was sich beispielsweise auch durch die Vergabe von im Dokument nicht vorkommenden Oberbegriffen realisieren läßt, ist ein wichtiges Anliegen der Inhaltsanalyse, das natürlich ebenso Konsequenzen für die Suchbarkeit der Dokumente hat.
Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
Footnote
Hausarbeit für den höheren Bibliotheksdienst
Theme
Regeln für den Schlagwortkatalog (RSWK)
Inhaltsanalyse
Object
RSWK

Similar documents (author)

  1. Ackermann, J.: Knuth-Morris-Pratt (2005) 6.09
    6.094361 = sum of:
      6.094361 = weight(author_txt:ackermann in 865) [ClassicSimilarity], result of:
        6.094361 = fieldWeight in 865, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.7509775 = idf(docFreq=6, maxDocs=44218)
          0.625 = fieldNorm(doc=865)
    
  2. Ackermann, E.: Piaget's constructivism, Papert's constructionism : what's the difference? (2001) 6.09
    6.094361 = sum of:
      6.094361 = weight(author_txt:ackermann in 692) [ClassicSimilarity], result of:
        6.094361 = fieldWeight in 692, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.7509775 = idf(docFreq=6, maxDocs=44218)
          0.625 = fieldNorm(doc=692)
    
  3. Ackermann, U.; Schumann, N.: DissOnline Portal (2007) 4.88
    4.8754888 = sum of:
      4.8754888 = weight(author_txt:ackermann in 2404) [ClassicSimilarity], result of:
        4.8754888 = fieldWeight in 2404, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.7509775 = idf(docFreq=6, maxDocs=44218)
          0.5 = fieldNorm(doc=2404)
    
  4. Payome, T.; Ackermann-Stommel, K.: Berufen zum Teletutor? : Interview mit Kerstin Ackermann-Stommel (2005) 4.27
    4.2660527 = sum of:
      4.2660527 = weight(author_txt:ackermann in 3520) [ClassicSimilarity], result of:
        4.2660527 = fieldWeight in 3520, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.7509775 = idf(docFreq=6, maxDocs=44218)
          0.4375 = fieldNorm(doc=3520)
    
  5. Batlle, E.; Neuschmied, H.; Uray, P.; Ackermann, G.: Recognition and analysis of audio for copyright protection : the RAA project (2004) 3.05
    3.0471804 = sum of:
      3.0471804 = weight(author_txt:ackermann in 3061) [ClassicSimilarity], result of:
        3.0471804 = fieldWeight in 3061, product of:
          1.0 = tf(freq=1.0), with freq of:
            1.0 = termFreq=1.0
          9.7509775 = idf(docFreq=6, maxDocs=44218)
          0.3125 = fieldNorm(doc=3061)
    

Similar documents (content)

  1. Nohr, H.: Inhaltsanalyse (1999) 0.33
    0.3285633 = sum of:
      0.3285633 = product of:
        1.6428165 = sum of:
          0.02706514 = weight(abstract_txt:wird in 3430) [ClassicSimilarity], result of:
            0.02706514 = score(doc=3430,freq=2.0), product of:
              0.04637352 = queryWeight, product of:
                1.0868546 = boost
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.011308148 = queryNorm
              0.5836335 = fieldWeight in 3430, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.109375 = fieldNorm(doc=3430)
          0.019196168 = weight(abstract_txt:werden in 3430) [ClassicSimilarity], result of:
            0.019196168 = score(doc=3430,freq=1.0), product of:
              0.050055627 = queryWeight, product of:
                1.2624607 = boost
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.011308148 = queryNorm
              0.3834967 = fieldWeight in 3430, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.109375 = fieldNorm(doc=3430)
          0.022701127 = weight(abstract_txt:eine in 3430) [ClassicSimilarity], result of:
            0.022701127 = score(doc=3430,freq=1.0), product of:
              0.059484236 = queryWeight, product of:
                1.507589 = boost
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.011308148 = queryNorm
              0.38163266 = fieldWeight in 3430, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.109375 = fieldNorm(doc=3430)
          0.032110468 = weight(abstract_txt:sich in 3430) [ClassicSimilarity], result of:
            0.032110468 = score(doc=3430,freq=1.0), product of:
              0.0824988 = queryWeight, product of:
                2.0501008 = boost
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.011308148 = queryNorm
              0.38922346 = fieldWeight in 3430, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.109375 = fieldNorm(doc=3430)
          1.5417436 = weight(abstract_txt:inhaltsanalyse in 3430) [ClassicSimilarity], result of:
            1.5417436 = score(doc=3430,freq=4.0), product of:
              0.82733995 = queryWeight, product of:
                8.588403 = boost
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.011308148 = queryNorm
              1.8634948 = fieldWeight in 3430, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.109375 = fieldNorm(doc=3430)
        0.2 = coord(5/25)
    
  2. Volpers, H.: Inhaltsanalyse (2013) 0.25
    0.24621637 = sum of:
      0.24621637 = product of:
        1.2310818 = sum of:
          0.02319869 = weight(abstract_txt:wird in 1018) [ClassicSimilarity], result of:
            0.02319869 = score(doc=1018,freq=2.0), product of:
              0.04637352 = queryWeight, product of:
                1.0868546 = boost
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.011308148 = queryNorm
              0.50025725 = fieldWeight in 1018, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.09375 = fieldNorm(doc=1018)
          0.016453858 = weight(abstract_txt:werden in 1018) [ClassicSimilarity], result of:
            0.016453858 = score(doc=1018,freq=1.0), product of:
              0.050055627 = queryWeight, product of:
                1.2624607 = boost
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.011308148 = queryNorm
              0.32871145 = fieldWeight in 1018, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.09375 = fieldNorm(doc=1018)
          0.019458108 = weight(abstract_txt:eine in 1018) [ClassicSimilarity], result of:
            0.019458108 = score(doc=1018,freq=1.0), product of:
              0.059484236 = queryWeight, product of:
                1.507589 = boost
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.011308148 = queryNorm
              0.3271137 = fieldWeight in 1018, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.09375 = fieldNorm(doc=1018)
          0.027523257 = weight(abstract_txt:sich in 1018) [ClassicSimilarity], result of:
            0.027523257 = score(doc=1018,freq=1.0), product of:
              0.0824988 = queryWeight, product of:
                2.0501008 = boost
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.011308148 = queryNorm
              0.3336201 = fieldWeight in 1018, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.09375 = fieldNorm(doc=1018)
          1.1444479 = weight(abstract_txt:inhaltsanalyse in 1018) [ClassicSimilarity], result of:
            1.1444479 = score(doc=1018,freq=3.0), product of:
              0.82733995 = queryWeight, product of:
                8.588403 = boost
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.011308148 = queryNorm
              1.3832861 = fieldWeight in 1018, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.09375 = fieldNorm(doc=1018)
        0.2 = coord(5/25)
    
  3. Spree, U.; Feißt, N.; Lühr, A.; Piesztal, B.; Schroeder, N.; Wollschläger, P.: Semantic search : State-of-the-Art-Überblick zu semantischen Suchlösungen im WWW (2011) 0.20
    0.20101598 = sum of:
      0.20101598 = product of:
        1.0050799 = sum of:
          0.019137945 = weight(abstract_txt:wird in 345) [ClassicSimilarity], result of:
            0.019137945 = score(doc=345,freq=1.0), product of:
              0.04637352 = queryWeight, product of:
                1.0868546 = boost
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.011308148 = queryNorm
              0.41269124 = fieldWeight in 345, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.109375 = fieldNorm(doc=345)
          0.033248737 = weight(abstract_txt:werden in 345) [ClassicSimilarity], result of:
            0.033248737 = score(doc=345,freq=3.0), product of:
              0.050055627 = queryWeight, product of:
                1.2624607 = boost
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.011308148 = queryNorm
              0.6642358 = fieldWeight in 345, product of:
                1.7320508 = tf(freq=3.0), with freq of:
                  3.0 = termFreq=3.0
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.109375 = fieldNorm(doc=345)
          0.14971091 = weight(abstract_txt:kapitel in 345) [ClassicSimilarity], result of:
            0.14971091 = score(doc=345,freq=2.0), product of:
              0.14504369 = queryWeight, product of:
                1.9221435 = boost
                6.6730065 = idf(docFreq=151, maxDocs=44218)
                0.011308148 = queryNorm
              1.032178 = fieldWeight in 345, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                6.6730065 = idf(docFreq=151, maxDocs=44218)
                0.109375 = fieldNorm(doc=345)
          0.032110468 = weight(abstract_txt:sich in 345) [ClassicSimilarity], result of:
            0.032110468 = score(doc=345,freq=1.0), product of:
              0.0824988 = queryWeight, product of:
                2.0501008 = boost
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.011308148 = queryNorm
              0.38922346 = fieldWeight in 345, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.109375 = fieldNorm(doc=345)
          0.7708718 = weight(abstract_txt:inhaltsanalyse in 345) [ClassicSimilarity], result of:
            0.7708718 = score(doc=345,freq=1.0), product of:
              0.82733995 = queryWeight, product of:
                8.588403 = boost
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.011308148 = queryNorm
              0.9317474 = fieldWeight in 345, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.109375 = fieldNorm(doc=345)
        0.2 = coord(5/25)
    
  4. Klose, A.: Sprachennamen im Schlagwortkatalog : Anmerkungen zu § 701 RSWK (2003) 0.20
    0.19784439 = sum of:
      0.19784439 = product of:
        0.7065871 = sum of:
          0.015465794 = weight(abstract_txt:wird in 1684) [ClassicSimilarity], result of:
            0.015465794 = score(doc=1684,freq=2.0), product of:
              0.04637352 = queryWeight, product of:
                1.0868546 = boost
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.011308148 = queryNorm
              0.33350486 = fieldWeight in 1684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.016597696 = weight(abstract_txt:einem in 1684) [ClassicSimilarity], result of:
            0.016597696 = score(doc=1684,freq=1.0), product of:
              0.06124403 = queryWeight, product of:
                1.2490168 = boost
                4.3361473 = idf(docFreq=1572, maxDocs=44218)
                0.011308148 = queryNorm
              0.2710092 = fieldWeight in 1684, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                4.3361473 = idf(docFreq=1572, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.015512846 = weight(abstract_txt:werden in 1684) [ClassicSimilarity], result of:
            0.015512846 = score(doc=1684,freq=2.0), product of:
              0.050055627 = queryWeight, product of:
                1.2624607 = boost
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.011308148 = queryNorm
              0.30991215 = fieldWeight in 1684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.091279924 = weight(abstract_txt:regeln in 1684) [ClassicSimilarity], result of:
            0.091279924 = score(doc=1684,freq=4.0), product of:
              0.10921505 = queryWeight, product of:
                1.4444691 = boost
                6.686252 = idf(docFreq=149, maxDocs=44218)
                0.011308148 = queryNorm
              0.8357815 = fieldWeight in 1684, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                6.686252 = idf(docFreq=149, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.025949176 = weight(abstract_txt:sich in 1684) [ClassicSimilarity], result of:
            0.025949176 = score(doc=1684,freq=2.0), product of:
              0.0824988 = queryWeight, product of:
                2.0501008 = boost
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.011308148 = queryNorm
              0.31454006 = fieldWeight in 1684, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.047737587 = weight(abstract_txt:frage in 1684) [ClassicSimilarity], result of:
            0.047737587 = score(doc=1684,freq=1.0), product of:
              0.14178686 = queryWeight, product of:
                2.3275554 = boost
                5.386969 = idf(docFreq=549, maxDocs=44218)
                0.011308148 = queryNorm
              0.33668557 = fieldWeight in 1684, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                5.386969 = idf(docFreq=549, maxDocs=44218)
                0.0625 = fieldNorm(doc=1684)
          0.49404404 = weight(title_txt:rswk in 1684) [ClassicSimilarity], result of:
            0.49404404 = score(doc=1684,freq=1.0), product of:
              0.20392568 = queryWeight, product of:
                2.7913737 = boost
                6.4604454 = idf(docFreq=187, maxDocs=44218)
                0.011308148 = queryNorm
              2.422667 = fieldWeight in 1684, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                6.4604454 = idf(docFreq=187, maxDocs=44218)
                0.375 = fieldNorm(doc=1684)
        0.28 = coord(7/25)
    
  5. Lowisch, M.: Gesamthochschulbibliotheken und Klassifikationsentwicklung im Spannungsfeld zwischen Kooperation und lokalen Bedürfnissen (2017) 0.20
    0.1970399 = sum of:
      0.1970399 = product of:
        0.8209996 = sum of:
          0.05540251 = weight(abstract_txt:konzeption in 5116) [ClassicSimilarity], result of:
            0.05540251 = score(doc=5116,freq=1.0), product of:
              0.0828541 = queryWeight, product of:
                1.0272553 = boost
                7.132539 = idf(docFreq=95, maxDocs=44218)
                0.011308148 = queryNorm
              0.66867554 = fieldWeight in 5116, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                7.132539 = idf(docFreq=95, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
          0.02319869 = weight(abstract_txt:wird in 5116) [ClassicSimilarity], result of:
            0.02319869 = score(doc=5116,freq=2.0), product of:
              0.04637352 = queryWeight, product of:
                1.0868546 = boost
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.011308148 = queryNorm
              0.50025725 = fieldWeight in 5116, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.773177 = idf(docFreq=2761, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
          0.02326927 = weight(abstract_txt:werden in 5116) [ClassicSimilarity], result of:
            0.02326927 = score(doc=5116,freq=2.0), product of:
              0.050055627 = queryWeight, product of:
                1.2624607 = boost
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.011308148 = queryNorm
              0.46486822 = fieldWeight in 5116, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5062556 = idf(docFreq=3606, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
          0.019458108 = weight(abstract_txt:eine in 5116) [ClassicSimilarity], result of:
            0.019458108 = score(doc=5116,freq=1.0), product of:
              0.059484236 = queryWeight, product of:
                1.507589 = boost
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.011308148 = queryNorm
              0.3271137 = fieldWeight in 5116, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                3.4892128 = idf(docFreq=3668, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
          0.038923766 = weight(abstract_txt:sich in 5116) [ClassicSimilarity], result of:
            0.038923766 = score(doc=5116,freq=2.0), product of:
              0.0824988 = queryWeight, product of:
                2.0501008 = boost
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.011308148 = queryNorm
              0.4718101 = fieldWeight in 5116, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5586145 = idf(docFreq=3422, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
          0.6607473 = weight(abstract_txt:inhaltsanalyse in 5116) [ClassicSimilarity], result of:
            0.6607473 = score(doc=5116,freq=1.0), product of:
              0.82733995 = queryWeight, product of:
                8.588403 = boost
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.011308148 = queryNorm
              0.7986406 = fieldWeight in 5116, product of:
                1.0 = tf(freq=1.0), with freq of:
                  1.0 = termFreq=1.0
                8.518833 = idf(docFreq=23, maxDocs=44218)
                0.09375 = fieldNorm(doc=5116)
        0.24 = coord(6/25)