Search (28 results, page 1 of 2)

  • × year_i:[2000 TO 2010}
  • × type_ss:"x"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.24
    0.2375736 = product of:
      0.4751472 = sum of:
        0.02985565 = product of:
          0.089566946 = sum of:
            0.089566946 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.089566946 = score(doc=701,freq=2.0), product of:
                0.23905002 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028196473 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.08702374 = weight(_text_:wirtschaftswissenschaften in 701) [ClassicSimilarity], result of:
          0.08702374 = score(doc=701,freq=6.0), product of:
            0.17904139 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.028196473 = queryNorm
            0.48605376 = fieldWeight in 701, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.089566946 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.089566946 = score(doc=701,freq=2.0), product of:
            0.23905002 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028196473 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.089566946 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.089566946 = score(doc=701,freq=2.0), product of:
            0.23905002 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028196473 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.089566946 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.089566946 = score(doc=701,freq=2.0), product of:
            0.23905002 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028196473 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.089566946 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.089566946 = score(doc=701,freq=2.0), product of:
            0.23905002 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028196473 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(6/12)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  2. Quosig, D.: Umsetzung des Lehrbuches "Wirtschaftsinformation" in ein Online-Tutorial (2004) 0.01
    0.01465426 = product of:
      0.17585112 = sum of:
        0.17585112 = weight(_text_:wirtschaftswissenschaften in 4527) [ClassicSimilarity], result of:
          0.17585112 = score(doc=4527,freq=2.0), product of:
            0.17904139 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.028196473 = queryNorm
            0.98218143 = fieldWeight in 4527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.109375 = fieldNorm(doc=4527)
      0.083333336 = coord(1/12)
    
    Field
    Wirtschaftswissenschaften
  3. Glindemann, C.A.: Wissensportale in Banken am Beispiel des Informationsportals der KfW Bankengruppe : Eine empirische Nutzerbefragung (2004) 0.01
    0.01465426 = product of:
      0.17585112 = sum of:
        0.17585112 = weight(_text_:wirtschaftswissenschaften in 4632) [ClassicSimilarity], result of:
          0.17585112 = score(doc=4632,freq=2.0), product of:
            0.17904139 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.028196473 = queryNorm
            0.98218143 = fieldWeight in 4632, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.109375 = fieldNorm(doc=4632)
      0.083333336 = coord(1/12)
    
    Field
    Wirtschaftswissenschaften
  4. Makewita, S.M.: Investigating the generic information-seeking function of organisational decision-makers : perspectives on improving organisational information systems (2002) 0.01
    0.008379914 = product of:
      0.05027948 = sum of:
        0.040728897 = weight(_text_:organisation in 642) [ClassicSimilarity], result of:
          0.040728897 = score(doc=642,freq=2.0), product of:
            0.14418204 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.028196473 = queryNorm
            0.28248245 = fieldWeight in 642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0390625 = fieldNorm(doc=642)
        0.009550583 = product of:
          0.019101165 = sum of:
            0.019101165 = weight(_text_:22 in 642) [ClassicSimilarity], result of:
              0.019101165 = score(doc=642,freq=2.0), product of:
                0.098739244 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028196473 = queryNorm
                0.19345059 = fieldWeight in 642, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=642)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    The past decade has seen the emergence of a new paradigm in the corporate world where organisations emphasised connectivity as a means of exposing decision-makers to wider resources of information within and outside the organisation. Many organisations followed the initiatives of enhancing infrastructures, manipulating cultural shifts and emphasising managerial commitment for creating pools and networks of knowledge. However, the concept of connectivity is not merely presenting people with the data, but more importantly, to create environments where people can seek information efficiently. This paradigm has therefore caused a shift in the function of information systems in organisations. They have to be now assessed in relation to how they underpin people's information-seeking activities within the context of their organisational environment. This research project used interpretative research methods to investigate the nature of people's information-seeking activities at two culturally contrasting organisations. Outcomes of this research project provide insights into phenomena associated with people's information-seeking function, and show how they depend on the organisational context that is defined partly by information systems. It suggests that information-seeking is not just searching for data. The inefficiencies inherent in both people and their environments can bring opaqueness into people's data, which they need to avoid or eliminate as part of seeking information. This seems to have made information-seeking a two-tier process consisting of a primary process of searching and interpreting data and auxiliary process of avoiding and eliminating opaqueness in data. Based on this view, this research suggests that organisational information systems operate naturally as implicit dual-mechanisms to underpin the above two-tier process, and that improvements to information systems should concern maintaining the balance in these dual-mechanisms.
    Date
    22. 7.2022 12:16:58
  5. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.01
    0.007424941 = product of:
      0.044549644 = sum of:
        0.024267893 = weight(_text_:allgemeine in 1447) [ClassicSimilarity], result of:
          0.024267893 = score(doc=1447,freq=4.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.16399993 = fieldWeight in 1447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.020281753 = product of:
          0.040563505 = sum of:
            0.040563505 = weight(_text_:allgemeines in 1447) [ClassicSimilarity], result of:
              0.040563505 = score(doc=1447,freq=8.0), product of:
                0.1608728 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.028196473 = queryNorm
                0.25214645 = fieldWeight in 1447, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
  6. Kühle, G.: Lokale Kooperation öffentlicher Bibliotheken unterschiedlicher Träger in Bezug auf ein Konzept für einen gemeinsamen Online-Katalog am Beispiel der ÖBs in Willich (2009) 0.01
    0.0067199245 = product of:
      0.080639094 = sum of:
        0.080639094 = weight(_text_:organisation in 3202) [ClassicSimilarity], result of:
          0.080639094 = score(doc=3202,freq=4.0), product of:
            0.14418204 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.028196473 = queryNorm
            0.55928665 = fieldWeight in 3202, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3202)
      0.083333336 = coord(1/12)
    
    Abstract
    Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
  7. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.01
    0.005004998 = product of:
      0.060059972 = sum of:
        0.060059972 = weight(_text_:allgemeine in 2461) [ClassicSimilarity], result of:
          0.060059972 = score(doc=2461,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.4058791 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
      0.083333336 = coord(1/12)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
  8. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.00
    0.0041869315 = product of:
      0.050243177 = sum of:
        0.050243177 = weight(_text_:wirtschaftswissenschaften in 4302) [ClassicSimilarity], result of:
          0.050243177 = score(doc=4302,freq=2.0), product of:
            0.17904139 = queryWeight, product of:
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.028196473 = queryNorm
            0.28062326 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3497796 = idf(docFreq=209, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.083333336 = coord(1/12)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
  9. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.00
    0.004113994 = product of:
      0.049367927 = sum of:
        0.049367927 = product of:
          0.14810377 = sum of:
            0.14810377 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.14810377 = score(doc=3396,freq=2.0), product of:
                0.27494317 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.028196473 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
      0.083333336 = coord(1/12)
    
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  10. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.00
    0.0035749986 = product of:
      0.04289998 = sum of:
        0.04289998 = weight(_text_:allgemeine in 1411) [ClassicSimilarity], result of:
          0.04289998 = score(doc=1411,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.28991365 = fieldWeight in 1411, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.083333336 = coord(1/12)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  11. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.00
    0.003380292 = product of:
      0.040563505 = sum of:
        0.040563505 = product of:
          0.08112701 = sum of:
            0.08112701 = weight(_text_:allgemeines in 2442) [ClassicSimilarity], result of:
              0.08112701 = score(doc=2442,freq=8.0), product of:
                0.1608728 = queryWeight, product of:
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.028196473 = queryNorm
                0.5042929 = fieldWeight in 2442, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.705423 = idf(docFreq=399, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Classification
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    RVK
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
  12. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.00
    0.002859999 = product of:
      0.034319986 = sum of:
        0.034319986 = weight(_text_:allgemeine in 5938) [ClassicSimilarity], result of:
          0.034319986 = score(doc=5938,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.23193093 = fieldWeight in 5938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.083333336 = coord(1/12)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  13. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.00
    0.002859999 = product of:
      0.034319986 = sum of:
        0.034319986 = weight(_text_:allgemeine in 973) [ClassicSimilarity], result of:
          0.034319986 = score(doc=973,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.23193093 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
      0.083333336 = coord(1/12)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  14. Oberhauser, O.: Automatisches Klassifizieren : Verfahren zur Erschließung elektronischer Dokumente (2004) 0.00
    0.002859999 = product of:
      0.034319986 = sum of:
        0.034319986 = weight(_text_:allgemeine in 2487) [ClassicSimilarity], result of:
          0.034319986 = score(doc=2487,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.23193093 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.03125 = fieldNorm(doc=2487)
      0.083333336 = coord(1/12)
    
    Theme
    Grundlagen u. Einführungen: Allgemeine Literatur
  15. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.00
    0.002375852 = product of:
      0.028510224 = sum of:
        0.028510224 = weight(_text_:organisation in 2490) [ClassicSimilarity], result of:
          0.028510224 = score(doc=2490,freq=2.0), product of:
            0.14418204 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.028196473 = queryNorm
            0.1977377 = fieldWeight in 2490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
      0.083333336 = coord(1/12)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
  16. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.00
    0.0022284691 = product of:
      0.02674163 = sum of:
        0.02674163 = product of:
          0.05348326 = sum of:
            0.05348326 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.05348326 = score(doc=4635,freq=2.0), product of:
                0.098739244 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028196473 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    26.11.2005 18:39:22
  17. Jackenkroll, M.: Nutzen von XML für die Herstellung verschiedener medialer Varianten von Informationsmitteln : dargestellt am Beispiel eines geografischen Lexikonartikels (2002) 0.00
    0.0020364448 = product of:
      0.024437336 = sum of:
        0.024437336 = weight(_text_:organisation in 4804) [ClassicSimilarity], result of:
          0.024437336 = score(doc=4804,freq=2.0), product of:
            0.14418204 = queryWeight, product of:
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.028196473 = queryNorm
            0.16948946 = fieldWeight in 4804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.113478 = idf(docFreq=722, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4804)
      0.083333336 = coord(1/12)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
  18. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.00
    0.0019101164 = product of:
      0.022921396 = sum of:
        0.022921396 = product of:
          0.045842793 = sum of:
            0.045842793 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.045842793 = score(doc=4865,freq=2.0), product of:
                0.098739244 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028196473 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    22. 6.2002 19:41:59
  19. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.00
    0.0015917638 = product of:
      0.019101165 = sum of:
        0.019101165 = product of:
          0.03820233 = sum of:
            0.03820233 = weight(_text_:22 in 3406) [ClassicSimilarity], result of:
              0.03820233 = score(doc=3406,freq=2.0), product of:
                0.098739244 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028196473 = queryNorm
                0.38690117 = fieldWeight in 3406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3406)
          0.5 = coord(1/2)
      0.083333336 = coord(1/12)
    
    Date
    30. 5.2010 16:22:35
  20. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.00
    0.0014299995 = product of:
      0.017159993 = sum of:
        0.017159993 = weight(_text_:allgemeine in 2061) [ClassicSimilarity], result of:
          0.017159993 = score(doc=2061,freq=2.0), product of:
            0.14797503 = queryWeight, product of:
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.028196473 = queryNorm
            0.11596546 = fieldWeight in 2061, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.2479978 = idf(docFreq=631, maxDocs=44218)
              0.015625 = fieldNorm(doc=2061)
      0.083333336 = coord(1/12)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit

Languages

  • d 25
  • e 2

Types