Search (222 results, page 1 of 12)

  • × year_i:[2000 TO 2010}
  • × type_ss:"x"
  1. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.13
    0.12975678 = product of:
      0.3892703 = sum of:
        0.023258602 = product of:
          0.069775805 = sum of:
            0.069775805 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.069775805 = score(doc=701,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0074449074 = weight(_text_:des in 701) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=701,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.009687742 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.009687742 = score(doc=701,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(8/24)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  2. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.04
    0.04081286 = product of:
      0.16325144 = sum of:
        0.022869896 = weight(_text_:und in 2442) [ClassicSimilarity], result of:
          0.022869896 = score(doc=2442,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46975413 = fieldWeight in 2442, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.0074449074 = weight(_text_:des in 2442) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=2442,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 2442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.024219355 = weight(_text_:der in 2442) [ClassicSimilarity], result of:
          0.024219355 = score(doc=2442,freq=50.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4935974 = fieldWeight in 2442, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.0632008 = weight(_text_:allgemeines in 2442) [ClassicSimilarity], result of:
          0.0632008 = score(doc=2442,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.5042929 = fieldWeight in 2442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.022869896 = weight(_text_:und in 2442) [ClassicSimilarity], result of:
          0.022869896 = score(doc=2442,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46975413 = fieldWeight in 2442, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.022646595 = product of:
          0.04529319 = sum of:
            0.04529319 = weight(_text_:deutschland in 2442) [ClassicSimilarity], result of:
              0.04529319 = score(doc=2442,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.42691165 = fieldWeight in 2442, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
    Classification
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Footnote
    Rez. in: Bibliothek: Forschung und Praxis 28(2004) H.1, S.132-135 (H. Flachmann)
    RSWK
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronisches Informationsmittel
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
    RVK
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Series
    Texte und Untersuchungen zur Archivpflege; Bd.14
    Subject
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronisches Informationsmittel
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
  3. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.04
    0.040271264 = product of:
      0.19330207 = sum of:
        0.012389454 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2482,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07613816 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2482,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.016246837 = weight(_text_:der in 2482) [ClassicSimilarity], result of:
          0.016246837 = score(doc=2482,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 2482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07613816 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2482,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.012389454 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2482,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
  4. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.04
    0.03944647 = product of:
      0.15778588 = sum of:
        0.038459353 = product of:
          0.11537806 = sum of:
            0.11537806 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.11537806 = score(doc=3396,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
        0.02064909 = weight(_text_:und in 3396) [ClassicSimilarity], result of:
          0.02064909 = score(doc=3396,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 3396, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.016118698 = weight(_text_:des in 3396) [ClassicSimilarity], result of:
          0.016118698 = score(doc=3396,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 3396, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.02345029 = weight(_text_:der in 3396) [ClassicSimilarity], result of:
          0.02345029 = score(doc=3396,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.47792363 = fieldWeight in 3396, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.038459353 = product of:
          0.11537806 = sum of:
            0.11537806 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.11537806 = score(doc=3396,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
        0.02064909 = weight(_text_:und in 3396) [ClassicSimilarity], result of:
          0.02064909 = score(doc=3396,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 3396, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
      0.25 = coord(6/24)
    
    Abstract
    Der praktische Einsatz der Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung sowie als Aufstellungssystematik in wissenschaftlichen Bibliotheken des deutschen Sprachraums hat wenig Tradition und wurde bisher von der Literatur kaum aufgearbeitet. Nach einer Darstellung der Rahmenbedingungen und der Problemlage in der Fachbereichsbibliothek Afrikanistik/Orientalistik der Universität Wien, gibt der Autor einen Überblick über die Erfahrungen mit und die Einschätzung von DDC in vergleichbaren wissenschaftlichen Bibliotheken vor allem im deutschen und englischen Sprachraum, definiert Kriterien für eine neue Systematik und klärt inwieweit diese mit dem Einsatz von DDC erfüllbar sind. Ausgehend von den quantitativen und räumlichen Rahmenbedingungen und der Segmentierung des Bestandes im Hinblick auf die Erfordernisse der Reklassifikation, sowie auf der Basis eigener Erfahrungen und Plausibilitätsprüfungen schätzt der Autor anhand von drei Varianten den nötigen Personal- und Zeitaufwand für den Einsatz von DDC im Rahmen eines Reklassifizierungsprojektes. Abschließend enthält die vorliegende Arbeit praktische Erfahrungen im Umgang mit der DDC am Beispiel des Themenbereiches "Islamwissenschaft", durch die auf einige Besonderheiten und Probleme bei der Verwendung von DDC für die Reklassifizierung hingewiesen wird.
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  5. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.04
    0.038916573 = product of:
      0.15566629 = sum of:
        0.013194968 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.013194968 = score(doc=4495,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.044413924 = weight(_text_:methodik in 4495) [ClassicSimilarity], result of:
          0.044413924 = score(doc=4495,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.27962124 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.018425206 = weight(_text_:des in 4495) [ClassicSimilarity], result of:
          0.018425206 = score(doc=4495,freq=16.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 4495, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.022023305 = weight(_text_:der in 4495) [ClassicSimilarity], result of:
          0.022023305 = score(doc=4495,freq=54.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44884127 = fieldWeight in 4495, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.044413924 = weight(_text_:methodik in 4495) [ClassicSimilarity], result of:
          0.044413924 = score(doc=4495,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.27962124 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.013194968 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.013194968 = score(doc=4495,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.25 = coord(6/24)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  6. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.03
    0.029775087 = product of:
      0.11910035 = sum of:
        0.01980591 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.01980591 = score(doc=1447,freq=138.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.009118112 = weight(_text_:des in 1447) [ClassicSimilarity], result of:
          0.009118112 = score(doc=1447,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.14989316 = fieldWeight in 1447, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.017795438 = weight(_text_:fragen in 1447) [ClassicSimilarity], result of:
          0.017795438 = score(doc=1447,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.15911217 = fieldWeight in 1447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.020974576 = weight(_text_:der in 1447) [ClassicSimilarity], result of:
          0.020974576 = score(doc=1447,freq=150.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 1447, product of:
              12.247449 = tf(freq=150.0), with freq of:
                150.0 = termFreq=150.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.0316004 = weight(_text_:allgemeines in 1447) [ClassicSimilarity], result of:
          0.0316004 = score(doc=1447,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.25214645 = fieldWeight in 1447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.01980591 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.01980591 = score(doc=1447,freq=138.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
      0.25 = coord(6/24)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    Methodisch gruppiert sich - das wurde schon deutlich - die Arbeit um Termini wie »Leitbilder«, »Modernisierung«, »Rationalisierung«, »Innovation« und will dies mit konkreten Projekten in einer »praxisbezogenen Sichtweise« (so der Klappentext) kontrastieren. Von diesem Zugang her stellt die Arbeit einen durchaus interessanten Ansatz zur historischen Würdigung der Datenverarbeitung und ihrer Rolle im Entwicklungsprozess der Bibliotheken dar. Schwartz will die »Projekte in ihrer Gesamtheit mit übergreifenden Beschreibungsmerkmalen und Entwicklungsphasen, insbesondere Ziele und Leitbilder der Bibliotheksprojekte« betrachten und herausarbeiten (S.4). Problematisch ist allerdings dabei, dass das methodische Vorgehen nicht ausreichend tief erfolgt oder auch nur einmal zusammenfassend reflektiert wird und mit der Auswahl und den ausgewählten »Quellen« selbst völlig unkritisch umgegangen wird. Weder wird klar definiert, was eigentlich unter einem »Leitbild« verstanden wird, noch, was diese Leitbilder eigentlich ausmacht oder was sie sind. Ähnliches gilt für das zugrunde gelegte Material: Werden die DFG-geförderten Projekte als Abbild der Gesamtentwicklung gesehen und wenn dies so gemeint ist, warum wird es nicht deutlich gesagt und entsprechend belegt? Eine nicht begründete affirmative Aussage zum Ende der Arbeit: »Die beschriebenen DFG-Projekte sind aufgrund ihrer thematischen Breite ein Spiegelbild der technischen Entwicklung zum Einsatz der Datenverarbeitung in Bibliotheken.« (S. 162) reicht dazu nicht aus. Wieso wird primär ein Förderprogramm (und das zeitlich teilweise parallele Förderprogramm »Informationsvermittlung in Bibliotheken«) untersucht? Wie betten sich die Aktivitäten in andere Förderaktivitäten der DFG ein und vor allem: Welchen Bezug hatte diese Förderlinie zu den Rahmenplanungen und Positionspapieren der DFG? Schlimmer noch: Einerseits wird ausdrücklich darauf verzichtet, eigene Bewertungen zu Projekten oder auch zu besprochenen Förderaktivitäten abzugeben (S.4 f), stattdessen werden »Kommentare und Bewertungen der Projekte aus vorhandenen Quellen herangezogen« (S.5). Andererseits werden diese (Selbst-)Statements aus dem DFGKontext selbst, in dünner Auswahl aber auch aus der zeitgenössischen Projektberichterstattung der Projektnehmer völlig unkritisch übernommen (S.111 f, 141 ff.). Zwar werden ausführlich Erfolgsparameter für Projekte diskutiert, andererseits aber verbiete sich jede Wertung bzw. Erfolgskontrolle (S.79 ff.). Gütekriterien werden benannt, aber extrem kurz abgehandelt: So ist etwa der Grad der Akzeptanz eines Projekts gerade einmal zwölf Zeilen wert (5.146) und wird auch später nicht weiter berücksichtigt.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    Insgesamt erhält man so mehr eine Materialansammlung zum Thema als eine Aufarbeitung-auch wenn die zum Teil fein gegliederte extreme Kapitelaufteilung etwas anderes suggeriert. Verbunden mit der starken Fußnotenlastigkeit (oft mehr als die Hälfte einer Seite einnehmend mit z.T. kuriosen Auswüchsen, wenn etwa von einer Textstelle auf zwei hintereinander stehende Fußnoten mit inhaltlich nahezu gleichen Aussagen verwiesen wird [S.72, 247/248]) ist die im Übrigen technisch sehr sauber erstellte Arbeit (ein Kolumnenfehler S.64, kaum Tippfehler) aus meiner Sicht keine Leseempfehlung. Wirksamkeit der Projekte? In doppeltem Sinne interessant ist der Hinweis auf weiteren Untersuchungsbedarf (S.222), hier macht Schwartz zwei Vorschläge. Zum einen solle man den Betrachtungsfokus auf das Ausland (und hier insbesondere die USA) und auf einen Systemvergleich (DDR) legen, zum anderen einen Vergleich organisatorischer Strukturen in kommerziellen Unternehmen und Bibliotheken ziehen, der klären solle, ob »Unternehmen - im Gegensatz zu Bibliotheken - aufgrund ihrer inneren Strukturen besser in der Lage sind, innovative Entwicklungen aufzugreifen und erfolgreich in den Routinebetrieb umzusetzen« (S.223). Die so indirekt getroffene Aussage zu Bibliotheken, über eine geringe Innovationsfähigkeit zu verfügen, ist für sich wohl wenig überraschend. Erstaunlich aber ist, dass diese Erkenntnis in der gesamten Arbeit nicht klar ausgesprochen wird - und da her auch in der Analyse der Projekte und der Förderanstrengungen der DFG keine Rolle spielt. Zwar wird an manchen Stellen auf Probleme bei der Nachnutzung von Projektergebnissen und auf Widerstände in Bibliotheken verwiesen (immer in Form von zeitgenössischen Zitaten); diese Äußerungen werden dann aber sofort wieder durch anders lautende Aussagen relativiert (s.a. die Zusammenfassung, S. 194). Hier aber liegen tatsächlich interessante Ansätze: Wie lässt sich die »Wirksamkeit« bestimmter Projekte untersuchen, was zur Wirkungsgeschichte bestimmter technischer Innovationen in Bibliotheken sagen? In diesem Zusammenhang müssten DFG-Positionspapiere und Stellungnahmen des Bibliotheksausschusses viel breiter berücksichtigt werden. Auch eine zahlenbasierte Analyse von 30 Jahren DFG-Förderung lässt möglicherweise interessante Schlüsse zu und spiegelt sich wandelnde Förderschwerpunkte. Wie ist das spezifische Gutachter-System der DFG im Kontext der Bibliotheksförderung zu sehen, inwieweit wirkten Gutachter aus Forschung und Wissenschaft erkennbar inhaltlich ein? Wie hat sich das Bild der Geschäftsstelle in dieser Zeit verändert und inwieweit existiert eine eigene Binnendynamik der Geschäftsstellenaktivitäten? Sind Begutachtungsmaßstäbe und Veränderungen in 30 Jahren erkennbar? Dies wäre schon deshalb interessant, weil die DFG-Projekteja nicht nur einfach Spiegelbild der Geschichte sind, sondern durchaus auch von speziellen Interessen gesteuert sind und eigenen Leitbildern folgen. Der Mut zu selbstverständlich begründeten Bewertungen einerseits und eine vertiefte Analyse einzelner ausgewählter Projekte und ihrer jeweiligen Wirkungsgeschichte andererseits hätten sicherlich einen größeren Erkenntnisgewinn gebracht. Wenn einmal in der Arbeit konkret ein Leitbild inhaltlich benannt wird, nämlich das traditionelle »Leitbild eines einheitlichen und gemeinschaftlichen Bibliothekswesens« (in der Zusammenfassung, S.195), wird erheblich klarer, was denn eigentlich gemeint ist."
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
  7. Meier, P.: Visualisierung von Kommunikationsstrukturen für kollaboratives Wissensmanagement in der Lehre (2006) 0.03
    0.025734717 = product of:
      0.10293887 = sum of:
        0.0041832835 = product of:
          0.01254985 = sum of:
            0.01254985 = weight(_text_:p in 3402) [ClassicSimilarity], result of:
              0.01254985 = score(doc=3402,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15890071 = fieldWeight in 3402, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3402)
          0.33333334 = coord(1/3)
        0.019661864 = weight(_text_:und in 3402) [ClassicSimilarity], result of:
          0.019661864 = score(doc=3402,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 3402, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
        0.014889815 = weight(_text_:des in 3402) [ClassicSimilarity], result of:
          0.014889815 = score(doc=3402,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 3402, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
        0.025166549 = weight(_text_:fragen in 3402) [ClassicSimilarity], result of:
          0.025166549 = score(doc=3402,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 3402, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
        0.019375484 = weight(_text_:der in 3402) [ClassicSimilarity], result of:
          0.019375484 = score(doc=3402,freq=32.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 3402, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
        0.019661864 = weight(_text_:und in 3402) [ClassicSimilarity], result of:
          0.019661864 = score(doc=3402,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 3402, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3402)
      0.25 = coord(6/24)
    
    Abstract
    Bei elektronisch vermittelten Kommunikationsprozessen im Kontext von kollaborativem Wissensmanagement in der Lehre entstehen sehr rasch komplexe Kommunikationsstrukturen mit reichhaltigen Verknüpfungen zu heterogenen Informationsmaterialien, die mit herkömmlichen Mitteln zu verfolgen und verfügbar zu machen sehr schnell schwierig bis unmöglich wird. Bisherige Formen von Orientierungshilfe werden eher durch konventionelle Mittel der Kommunikation und Interaktion unterstützt, und daher ist in der Regel kaum nachvollziehbar, wie Wissen, insbesondere dessen repräsentierende Konzepte zusammenhängt, sich entwickelt hat oder wo sich Wissenslücken ergeben. Eine fehlende Orientierung über die Kommunikationsprozesse hat u.a. zur Folge, dass (1) das Angebot elektronischer wissenschaftlicher Information nicht genutzt wird; (2) es zu Orientierungslosigkeit und kognitiven Überlastung kommt und damit die Wissensproduktion gehemmt wird; (3) Wissenslücken nicht aufgezeigt werden und somit in weiteren Diskursen nicht geschlossen werden können; (4) eine Unterstützung für die Moderation fehlt, um effizient Ursachen für Störungen in den Lernprozessen und Konflikten innerhalb der Gruppen zu erkennen; (5) die grundlegende Basis fehlt, um typische Fragen von Benutzern im Umgang mit einem kollaborativen Wissensmanagementsystem in der Lehre effizient beantworten zu können. In der vorliegenden Arbeit wird ein Konzept zur Visualisierung von Kommunikationsstrukturen vorgestellt, das zum Ziel hat, eine effiziente und effektive Orientierungs- und Navigationshilfe für ein kollaboratives Wissensmanagementsystem in der Lehre bereitzustellen. Dabei sollen typische Orientierungsfragen der Benutzer und der Moderation effizient beantwortet werden können. Das entwickelte Gesamtkonzept wurde in das Visualisierungssystem K3Vis umgesetzt und damit dessen Machbarkeit überprüft. K3Vis ist im Forschungsprojekt K3 integriert und steht für den produktiven Einsatz zur Verfügung. K3 steht für Kooperation, Kommunikation und InformationsKompetenz und ist ein von der Konstanzer Informationswissenschaft initiiertes Projekt im Kontext des kollaborativen Wissensmanagements in der Lehre. Im Rahmen dieser Arbeit wurden alle historischen, von den Studierenden kollaborativ erarbeiteten Arbeitsaufträge im Detail analysiert und dabei symptomatische Muster in Kommunikationsstrukturen ermittelt, die bei der Bewertung und der Moderation des Diskursverlaufs hilfreich sein können. An konkreten, "produktiven" Beispielen werden diese Diagnosemöglichkeiten anhand von Abbildungen diskutiert.
    Content
    Dissertation zur Erlangung des akademischen Grades des Doktors der Naturwissenschaften (Dr. rer. nat.) an der Universität Konstanz Mathematisch-naturwissenschaftliche Sektion Fachbereich Informatik und Informationswissenschaft Fach Informationswissenschaft; vgl. unter: http://www.ub.uni-konstanz.de/kops/volltexte/2006/1925/
  8. Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004) 0.02
    0.024423283 = product of:
      0.11723176 = sum of:
        0.030159926 = weight(_text_:und in 3717) [ClassicSimilarity], result of:
          0.030159926 = score(doc=3717,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.6194934 = fieldWeight in 3717, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
        0.014889815 = weight(_text_:des in 3717) [ClassicSimilarity], result of:
          0.014889815 = score(doc=3717,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 3717, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
        0.019375484 = weight(_text_:der in 3717) [ClassicSimilarity], result of:
          0.019375484 = score(doc=3717,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 3717, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
        0.030159926 = weight(_text_:und in 3717) [ClassicSimilarity], result of:
          0.030159926 = score(doc=3717,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.6194934 = fieldWeight in 3717, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3717)
        0.022646595 = product of:
          0.04529319 = sum of:
            0.04529319 = weight(_text_:deutschland in 3717) [ClassicSimilarity], result of:
              0.04529319 = score(doc=3717,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.42691165 = fieldWeight in 3717, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3717)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Nach historischem Abriß des öffentlich-rechtlichen Rundfunks in Deutschland und Australien werden Programmstrukturen und -richtlinien behandelt, die sich auf die ethnische Vielfalt der Länder beziehen, ferner die multikulturelle Gesellschaft beider Länder und die Rolle der Medien bei der Integration. Ausgewählte Formate und ihre Programme werden auf ihren Anteil an Multikulturalität hin ausgewertet und Ergebnisse einer in Sydney und Hamburg durchgeführten Rezeptionsstudie miteinander verglichen.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  9. Kaufmann, E.: ¬Das Indexieren von natürlichsprachlichen Dokumenten und die inverse Seitenhäufigkeit (2001) 0.02
    0.023485616 = product of:
      0.11273096 = sum of:
        0.015771002 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015771002 = score(doc=318,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.009306135 = weight(_text_:des in 318) [ClassicSimilarity], result of:
          0.009306135 = score(doc=318,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.053718302 = weight(_text_:spezielle in 318) [ClassicSimilarity], result of:
          0.053718302 = score(doc=318,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.36755532 = fieldWeight in 318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.018164515 = weight(_text_:der in 318) [ClassicSimilarity], result of:
          0.018164515 = score(doc=318,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 318, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
        0.015771002 = weight(_text_:und in 318) [ClassicSimilarity], result of:
          0.015771002 = score(doc=318,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 318, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=318)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Lizentiatsarbeit gibt im ersten theoretischen Teil einen Überblick über das Indexieren von Dokumenten. Sie zeigt die verschiedenen Typen von Indexen sowie die wichtigsten Aspekte bezüglich einer Indexsprache auf. Diverse manuelle und automatische Indexierungsverfahren werden präsentiert. Spezielle Aufmerksamkeit innerhalb des ersten Teils gilt den Schlagwortregistern, deren charakteristische Merkmale und Eigenheiten erörtert werden. Zusätzlich werden die gängigen Kriterien zur Bewertung von Indexen sowie die Masse zur Evaluation von Indexierungsverfahren und Indexierungsergebnissen vorgestellt. Im zweiten Teil der Arbeit werden fünf reale Bücher einer statistischen Untersuchung unterzogen. Zum einen werden die lexikalischen und syntaktischen Bestandteile der fünf Buchregister ermittelt, um den Inhalt von Schlagwortregistern zu erschliessen. Andererseits werden aus den Textausschnitten der Bücher Indexterme maschinell extrahiert und mit den Schlagworteinträgen in den Buchregistern verglichen. Das Hauptziel der Untersuchungen besteht darin, eine Indexierungsmethode, die auf linguistikorientierter Extraktion der Indexterme und Termhäufigkeitsgewichtung basiert, im Hinblick auf ihren Gebrauchswert für eine automatische Indexierung zu testen. Die Gewichtungsmethode ist die inverse Seitenhäufigkeit, eine Methode, welche von der inversen Dokumentfrequenz abgeleitet wurde, zur automatischen Erstellung von Schlagwortregistern für deutschsprachige Texte. Die Prüfung der Methode im statistischen Teil führte nicht zu zufriedenstellenden Resultaten.
    Content
    Lizentiatsarbeit der Philosphischen Fakultät der Universität Zürich, - Vgl. auch: http://www.ifi.unizh.ch/cl/study/lizarbeiten/lizkaufmann.pdf.
  10. Schubert, P.: Revision von Aufbau und Anwendung des kontrollierten Vokabulars einer bibliografischen Datensammlung zum Thema Dramturgie (2003) 0.02
    0.022693371 = product of:
      0.10892819 = sum of:
        0.014641492 = product of:
          0.043924473 = sum of:
            0.043924473 = weight(_text_:p in 2518) [ClassicSimilarity], result of:
              0.043924473 = score(doc=2518,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.55615246 = fieldWeight in 2518, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2518)
          0.33333334 = coord(1/3)
        0.023603875 = weight(_text_:und in 2518) [ClassicSimilarity], result of:
          0.023603875 = score(doc=2518,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 2518, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
        0.026057174 = weight(_text_:des in 2518) [ClassicSimilarity], result of:
          0.026057174 = score(doc=2518,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.4283554 = fieldWeight in 2518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
        0.021021776 = product of:
          0.04204355 = sum of:
            0.04204355 = weight(_text_:29 in 2518) [ClassicSimilarity], result of:
              0.04204355 = score(doc=2518,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5441145 = fieldWeight in 2518, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2518)
          0.5 = coord(1/2)
        0.023603875 = weight(_text_:und in 2518) [ClassicSimilarity], result of:
          0.023603875 = score(doc=2518,freq=4.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 2518, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=2518)
      0.20833333 = coord(5/24)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
    Pages
    29 S
  11. Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003) 0.02
    0.021853173 = product of:
      0.104895234 = sum of:
        0.021852942 = weight(_text_:und in 3407) [ClassicSimilarity], result of:
          0.021852942 = score(doc=3407,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.44886562 = fieldWeight in 3407, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.016647318 = weight(_text_:des in 3407) [ClassicSimilarity], result of:
          0.016647318 = score(doc=3407,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.27366623 = fieldWeight in 3407, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.025166549 = weight(_text_:fragen in 3407) [ClassicSimilarity], result of:
          0.025166549 = score(doc=3407,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 3407, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.019375484 = weight(_text_:der in 3407) [ClassicSimilarity], result of:
          0.019375484 = score(doc=3407,freq=32.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 3407, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
        0.021852942 = weight(_text_:und in 3407) [ClassicSimilarity], result of:
          0.021852942 = score(doc=3407,freq=42.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.44886562 = fieldWeight in 3407, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3407)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
    Fragestellung: "Kann man Wissen wie eine Ressource behandeln und managen?" Diese Frage stellt bzw. sollte den Ausgangspunkt jedes Wissensmanagementkonzeptes darstellen und steht aus diesem Grund im Mittelpunkt dieser Arbeit. Anders formuliert könnte man sagen: "Ist der Begriff Wissensmanagement kontradiktorisch?" Stellen Wissensmanagementkonzepte nur einen neuen Managementtrend dar, der alte, wenig erfolgreiche Konzepte (Business Process Reengeneering, TQM, Lean Management, Kaizen) mit neuen Begriffen auffüllt? Was ist Wissen und welche Faktoren begünstigen die Entstehung und den Austausch von Wissen? Welche Bedeutung hat Kommunikation für die Entstehung von Wissen? Wenn Kommunikation einen entscheidenden Faktor für die Entstehung und den Austausch von Wissen hat, inwiefern können Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement genutzt werden? Das sind die zentralen Fragen, die ich mir am Anfang und im Verlauf dieser Arbeit gestellt habe. Die Fragestellungen basieren auf sozialwissenschaftlichen Überlegungen, anhand derer das ökonomische Konzept Wissensmanagement untersucht wird. Nachdem Wissen ein soziales Konstrukt ist und die Transformation der knowledge-based economy vor allem von den neuen Informations- und Kommunikationstechnologien vorangetrieben und verstärkt wurde, erschien mir die Betrachtung des Managements von Wissen anhand dieser Fragestellungen für zielführend und an der Zeit.
    Content
    Diplomarbeit zur Erlangung des Magistergrades an der Geisteswissenschaftlichen Fakultät der Universität Salzburg; vgl.: http://sun.subnet.at:8060/netzkultur/artikel/Wissensmanagement.pdf.
    Source
    eine kritische Analyse im Kontext neuer Informations- und Kommunikationstechnologien
  12. Kaluza, H.: Methoden und Verfahren bei der Archivierung von Internetressourcen : "The Internet Archive" und PANDORA (2002) 0.02
    0.021252206 = product of:
      0.10201059 = sum of:
        0.02431571 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02431571 = score(doc=973,freq=52.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.49945155 = fieldWeight in 973, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.012894959 = weight(_text_:des in 973) [ClassicSimilarity], result of:
          0.012894959 = score(doc=973,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21198097 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.025166549 = weight(_text_:fragen in 973) [ClassicSimilarity], result of:
          0.025166549 = score(doc=973,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.015317665 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.015317665 = score(doc=973,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3121784 = fieldWeight in 973, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
        0.02431571 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.02431571 = score(doc=973,freq=52.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.49945155 = fieldWeight in 973, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=973)
      0.20833333 = coord(5/24)
    
    Content
    "Die vorliegende Arbeit befasst sich mit den Methoden und Verfahren bei der Archivierung von Internetressourcen. Ziel ist es, anhand einer vergleichenden Beschreibung zweier zur Zeit aktiver, bzw. im Aufbau befindlicher Projekte, die Grundprobleme dieser speziellen Art der Archivierung darzustellen und deren unterschiedliche Vorgehensweisen beim Aufbau des Archivs zu beschreiben und zu vergleichen. Daraus erfolgt eine Diskussion über grundsätzliche Fragestellungen zu diesem Thema. Hierzu ist es vonnöten, zuerst auf das besondere Medium Internet, insbesondere auf das World Wide Web (WWW), einzugehen, sowie dessen Geschichte und Entstehung zu betrachten. Weiterhin soll ein besonderes Augenmerk auf die Datenmenge, die Datenstruktur und die Datentypen (hier vor allem im World Wide Web) gelegt werden. Da die daraus entstehenden Probleme für Erschließung und Retrieval, die Qualität und die Fluktuation der Angebote im Web eine wichtige Rolle im Rahmen der Archivierung von Internetressourcen darstellen, werden diese gesondert mittels kurzer Beschreibungen bestimmter Instrumente und Projekte zur Lösung derselben beschrieben. Hier finden insbesondere Suchmaschinen und Webkataloge, deren Arbeitsweise und Aufbau besondere Beachtung. Weiterhin sollen die "Virtuelle Bibliothek" und das "Dublin Core"- Projekt erläutert werden. Auf dieser Basis wird dann speziell auf das allgemeine Thema der Archivierung von Internetressourcen eingegangen. Ihre Grundgedanken und ihre Ziele sollen beschrieben und erste Diskussionsfragen und Diskrepanzen aufgezeigt werden. Ein besonderes Augenmerk gilt hier vor allem den technischen und rechtlichen Problemen, sowie Fragen des Jugendschutzes und der Zugänglichkeit zu mittlerweile verbotenen Inhalten. Einzelne Methoden der Archivierung, die vor allem im folgenden Teil anhand von Beispielen Beachtung finden, werden kurz vorgestellt. Im darauf folgenden Teil werden zwei Archivierungsprojekte detailliert beschrieben und analysiert. Einem einführenden Überblick über das jeweilige Projekt, folgen detaillierte Beschreibungen zu Projektverlauf, Philosophie und Vorgehensweise. Die Datenbasis und das Angebot, sowie die Funktionalitäten werden einer genauen Untersuchung unterzogen. Stärken und Schwächen werden genannt, und wenn möglich, untereinander verglichen. Hier ist vor allem auch die Frage von Bedeutung, ob das Angebot a) den Ansprüchen und Zielsetzungen des Anbieters genügt, und ob es b) den allgemeinen Grundfragen der Archivierung von Internetressourcen gleichkommt, die in Kapitel 3 genannt worden sind. Auf Basis aller Teile soll dann abschließend der derzeitige Stand im Themengebiet diskutiert werden. Die Arbeit schließt mit einer endgültigen Bewertung und alternativen Lösungen."
  13. Carlin, S.A.: Schlagwortvergabe durch Nutzende (Tagging) als Hilfsmittel zur Suche im Web : Ansatz, Modelle, Realisierungen (2006) 0.02
    0.020773591 = product of:
      0.09971324 = sum of:
        0.021492256 = weight(_text_:und in 2476) [ClassicSimilarity], result of:
          0.021492256 = score(doc=2476,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 2476, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2476)
        0.013160862 = weight(_text_:des in 2476) [ClassicSimilarity], result of:
          0.013160862 = score(doc=2476,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 2476, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2476)
        0.031458188 = weight(_text_:fragen in 2476) [ClassicSimilarity], result of:
          0.031458188 = score(doc=2476,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.28127325 = fieldWeight in 2476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2476)
        0.012109677 = weight(_text_:der in 2476) [ClassicSimilarity], result of:
          0.012109677 = score(doc=2476,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.2467987 = fieldWeight in 2476, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2476)
        0.021492256 = weight(_text_:und in 2476) [ClassicSimilarity], result of:
          0.021492256 = score(doc=2476,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.441457 = fieldWeight in 2476, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2476)
      0.20833333 = coord(5/24)
    
    Abstract
    Nach dem zu Beginn der Ära des World Wide Web von Hand gepflegte Linklisten und -Verzeichnisse und an Freunde und Kollegen per E-Mail verschickte Links genügten, um die Informationen zu finden, nach denen man suchte, waren schon bald Volltextsuchmaschinen und halbautomatisch betriebene Kataloge notwendig, um den mehr und mehr anschwellenden Informationsfluten des Web Herr zu werden. Heute bereits sind diese Dämme gebrochen und viele Millionen Websites halten Billionen an Einzelseiten mit Informationen vor, von Datenbanken und anderweitig versteckten Informationen ganz zu schweigen. Mit Volltextsuchmaschinen erreicht man bei dieser Masse keine befriedigenden Ergebnisse mehr. Entweder man erzeugt lange Suchterme mit vielen Ausschließungen und ebenso vielen nicht-exklusiven ODER-Verknüpfungen um verschiedene Schreibweisen für den gleichen Term abzudecken oder man wählt von vornherein die Daten-Quelle, an die man seine Fragen stellt, genau aus. Doch oft bleiben nur klassische Web-Suchmaschinen übrig, zumal wenn der Fragende kein Informationsspezialist mit Kenntnissen von Spezialdatenbanken ist, sondern, von dieser Warte aus gesehenen, ein Laie. Und nicht nur im Web selbst, auch in unternehmensinternen Intranets steht man vor diesem Problem. Tausende von indizierten Dokumente mögen ein Eckdatum sein, nach dem sich der Erfolg der Einführung eines Intranets bemessen lässt, aber eine Aussage über die Nützlichkeit ist damit nicht getroffen. Und die bleibt meist hinter den Erwartungen zurück, vor allem bei denen Mitarbeitern, die tatsächlich mit dem Intranet arbeiten müssen. Entscheidend ist für die Informationsauffindung in Inter- und Intranet eine einfach zu nutzende und leicht anpassbare Möglichkeit, neue interessante Inhalte zu entdecken. Mit Tags steht eine mögliche Lösung bereit.
    Imprint
    Darmstadt : Hochschule Darmstadt, Fachbereich Informations- und Wissensmanagement
  14. Richter, S.: ¬Die formale Beschreibung von Dokumenten in Archiven und Bibliotheken : Perspektiven des Datenaustauschs (2004) 0.02
    0.019757945 = product of:
      0.094838135 = sum of:
        0.019661864 = weight(_text_:und in 4982) [ClassicSimilarity], result of:
          0.019661864 = score(doc=4982,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 4982, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
        0.016647318 = weight(_text_:des in 4982) [ClassicSimilarity], result of:
          0.016647318 = score(doc=4982,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.27366623 = fieldWeight in 4982, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
        0.025166549 = weight(_text_:fragen in 4982) [ClassicSimilarity], result of:
          0.025166549 = score(doc=4982,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.22501859 = fieldWeight in 4982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
        0.013700536 = weight(_text_:der in 4982) [ClassicSimilarity], result of:
          0.013700536 = score(doc=4982,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 4982, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
        0.019661864 = weight(_text_:und in 4982) [ClassicSimilarity], result of:
          0.019661864 = score(doc=4982,freq=34.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40386027 = fieldWeight in 4982, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4982)
      0.20833333 = coord(5/24)
    
    Abstract
    Die Datenrecherche und der Zugriff auf Informationen wurde in den letzten Jahren durch Angebote im Internet erleichtert. Während im Bibliothekswesen bereits seit Jahrzehnten Erfahrungen durch die Verbundkatalogisierung im Bereich des Datenaustauschs gesammelt wurden, wurde eine kooperative Datenhaltung zwischen Archiven erst in den letzten Jahren begonnen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Daten aus Archiven und Bibliotheken in gemeinsamen Datenpools angeboten werden können: Sind die Inhalte der verschiedenen Datenkategorien ähnlich genug, um sie zusammenfassen zu können? Welche Standards liegen den Daten zugrunde? Um diese Fragen beantworten zu können, werden zunächst die verschiedenen Regelwerke des Archivs- und Bibliothekswesens zur archivischen Verzeichnung bzw. der bibliographischen Beschreibung untersucht und anschließend die darauf fußenden Austauschformate. Folgende (Regel-) Werke werden in die Analyse integiert: Papritz: Die archivische Titelaufnahme bei Sachakten, die Ordnungs- und Verzeichnungsgrundsätze für die staatlichen Archive der Deutschen Demokratischen Republik (OVG-DDR), Internationale Grundsätze für die archivische Verzeichnung (ISAD(G)), das Handbuch für Wirtschaftsarchive, Praktische Archivkunde, die Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB), die Anglo-American Cataloguing Rules (AACR), General International Standard Bibliographic Description (ISBD(G)) und für den Bereich der Nachlasserschließung als Schnittstelle zwischen Archiven und Bibliotheken die Ordnungs- und Verzeichnungsgrundsätze [des Goethe- und Schiller-Archivs] (OVG-GSA), König: Verwaltung und wissenschaftliche Erschließung von Nachlässen in Literaturarchiven sowie die Regeln zur Erschließung von Nachlässen und Autographen (RNA). Von den Datenaustauschformaten werden Encoded Archival Description (EAD), Maschinelles Austauschformat für Bibliotheken (MAB) und Machine Readable Cataloguing (MARC) vorgestellt. Die Analyse zeigt, dass Daten aus Archiven und Bibliotheken in einer gemeinsamen Datenmenge zur Verfügung gestellt werden können, um sie für eine spartenübergreifende Recherche nutzbar zu machen. Es muss aber eingeräumt werden, dass im Austauschformat für ähnliche Beschreibungselemente nicht identische Kategorienummern verwendet werden können, da hierfür die Inhalte der Kategorien zu stark differieren. Aus diesem Grund kann das MAB-Format auch nicht ohne weiteres für archivische Elemente verwendet werden: Entweder müsste das bestehende MAB-Schema an die Belange des Archivwesens angepasst werden oder es müsste ein neues Austauschformat generiert werden, da auch das internationale EAD-Format nicht ohne Änderungen auf die deutsche Verzeichnungstradition abgebildet werden kann. Insbesondere wäre sowohl innerhalb der Sparten Archiv- und Bibliothekswesen als auch darüber hinaus eine tiefere Diskussion um verbindliche Regelwerke und Austauschformate zu empfehlen.
    Footnote
    Master's thesis Zusatzstudiengang Bibliotheks- und Informationswissenschaft
  15. Wagner, S.: Barrierefreie und thesaurusbasierte Suchfunktion für das Webportal der Stadt Nürnberg (2007) 0.02
    0.019685674 = product of:
      0.09449124 = sum of:
        0.020441556 = weight(_text_:und in 1724) [ClassicSimilarity], result of:
          0.020441556 = score(doc=1724,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 1724, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1724)
        0.013028587 = weight(_text_:des in 1724) [ClassicSimilarity], result of:
          0.013028587 = score(doc=1724,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 1724, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1724)
        0.020763772 = weight(_text_:der in 1724) [ClassicSimilarity], result of:
          0.020763772 = score(doc=1724,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 1724, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1724)
        0.020441556 = weight(_text_:und in 1724) [ClassicSimilarity], result of:
          0.020441556 = score(doc=1724,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 1724, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1724)
        0.01981577 = product of:
          0.03963154 = sum of:
            0.03963154 = weight(_text_:deutschland in 1724) [ClassicSimilarity], result of:
              0.03963154 = score(doc=1724,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3735477 = fieldWeight in 1724, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1724)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Im Internetportal der Stadt Nürnberg wurde in einer vorausgehenden Diplomarbeit eine Suchmaschine auf Basis des Produktes e:IAS der Fa. empolis GmbH realisiert. Diese Lösung soll in verschiedenen Bereichen verbessert und erweitert werden. Es sollen aussagekräftige Logfiles generiert und ausgewertet werden, insbesondere sollen die Auswertungen mit denen der vorhergehenden Suchlösung vergleichbar sein. Bei der Ergebnispräsentation sollen die Erfordernisse der Barrierefreiheit beachtet werden und die vorhandenen Templates entsprechende Anpassung erfahren. Die Lösung soll um Ansätze semantischer Suche erweitert werden. Es ist angedacht die vorhandene Synonymverwendung auszubauen und um Taxonomien zu einem Theasurus zu erweitern. Dabei sollen verschiedene Möglichkeiten untersucht werden und eine Möglichkeit, mindestens prototypisch, integriert werden.
    Footnote
    Diplomarbeit, Georg-Simon-Ohm-Fachhochschule Nürnberg Deutschland
  16. Haßelmeier, B.: ¬Die Dewey Decimal Classification : Eine Einführung im Zusammenhang mit dem Projekt "DDC Deutsch" (2004) 0.02
    0.018418683 = product of:
      0.08840968 = sum of:
        0.020441556 = weight(_text_:und in 2880) [ClassicSimilarity], result of:
          0.020441556 = score(doc=2880,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 2880, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2880)
        0.013028587 = weight(_text_:des in 2880) [ClassicSimilarity], result of:
          0.013028587 = score(doc=2880,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 2880, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2880)
        0.014682204 = weight(_text_:der in 2880) [ClassicSimilarity], result of:
          0.014682204 = score(doc=2880,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29922754 = fieldWeight in 2880, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2880)
        0.020441556 = weight(_text_:und in 2880) [ClassicSimilarity], result of:
          0.020441556 = score(doc=2880,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 2880, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2880)
        0.01981577 = product of:
          0.03963154 = sum of:
            0.03963154 = weight(_text_:deutschland in 2880) [ClassicSimilarity], result of:
              0.03963154 = score(doc=2880,freq=2.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3735477 = fieldWeight in 2880, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2880)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Diese Arbeit möchte im Zusammenhang mit dem Übersetzungsprojekt "Dewey Decimal Classification Deutsch" eine Einführung zur Entstehung, Anwendung, Struktur und Erscheinungsweise des amerikanischen Originals geben. Zunächst werden einige grundlegende Begriffe der allgemeinen Klassifikationslehre erläutert. Anschließend werden Funktion und Bedeutung von Klassifikationen für den Bibliotheks- und Dokumentationsbereich skizziert. Im dritten Kapitel wird dann ausführlich auf die Dewey Decimal Classification eingegangen, bevor im letzten Kapitel dargestellt wird, welche Ziele mit dem Projekt "DDC Deutsch" verfolgt werden und welche Schwierigkeiten und Herausforderungen mit der Übersetzung verbunden sind. Die Arbeit schließt mit einem Ausblick auf die Möglichkeiten, die sich für das Bibliotheks- und Dokumentationswesen in Deutschland durch eine Übersetzung der Dewey Decimal Classification eröffnen.
  17. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.02
    0.018084763 = product of:
      0.10850857 = sum of:
        0.023086384 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.023086384 = score(doc=2460,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47420087 = fieldWeight in 2460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.019147081 = weight(_text_:der in 2460) [ClassicSimilarity], result of:
          0.019147081 = score(doc=2460,freq=20.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.390223 = fieldWeight in 2460, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.023086384 = weight(_text_:und in 2460) [ClassicSimilarity], result of:
          0.023086384 = score(doc=2460,freq=30.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47420087 = fieldWeight in 2460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2460)
        0.04318872 = sum of:
          0.028308243 = weight(_text_:deutschland in 2460) [ClassicSimilarity], result of:
            0.028308243 = score(doc=2460,freq=2.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.26681978 = fieldWeight in 2460, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2460)
          0.01488048 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
            0.01488048 = score(doc=2460,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.19345059 = fieldWeight in 2460, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=2460)
      0.16666667 = coord(4/24)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  18. Frommeyer, J.: Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken : eine Analyse von RSWK, LCSH und RAMEAU sowie Entwicklung eines theoretischen Modells für ein Zeitretrieval (2003) 0.02
    0.017955396 = product of:
      0.0861859 = sum of:
        0.018129306 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.018129306 = score(doc=2203,freq=74.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.37238106 = fieldWeight in 2203, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.0046530673 = weight(_text_:des in 2203) [ClassicSimilarity], result of:
          0.0046530673 = score(doc=2203,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.07649204 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.026859151 = weight(_text_:spezielle in 2203) [ClassicSimilarity], result of:
          0.026859151 = score(doc=2203,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.18377766 = fieldWeight in 2203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.018415075 = weight(_text_:der in 2203) [ClassicSimilarity], result of:
          0.018415075 = score(doc=2203,freq=74.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3753045 = fieldWeight in 2203, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
        0.018129306 = weight(_text_:und in 2203) [ClassicSimilarity], result of:
          0.018129306 = score(doc=2203,freq=74.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.37238106 = fieldWeight in 2203, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2203)
      0.20833333 = coord(5/24)
    
    Footnote
    Rez. in: ZfBB 50(2003) H.5, S.295-297 (E. Scheven):"In ihrem Buch »Zeitbegriffe und Zeitcodierungen in allgemeinbibliographischen Datenbanken« entwickelt die Autorin ein theoretisches Modell für ein Zeitretrieval in allgemeinbibliografischen Datenbanken. Dafür untersucht sie die Verwendung von Zeitbegriffen (Epochenbezeichnungen, historiografischen Begriffen) und Zeitcodierungen (Jahreszahlen, Datumsangaben) bei der Indexierung von Dokumenten in allgemeinbibliografischen Datenbanken und deren Retrievalmöglichkeiten. Durch Globalisierung und Internet ist der Zugang zu den Katalogen unterschiedlichster lnstitutionen weit überdie Landesgrenzen hinaus möglich geworden. Dadurch ist der Zwang zur Standardisierung der bibliothekarischen Regeln weltweit verschärft, um Daten-Interoperabilität zu gewährleisten. Hauptziel der Sacherschließung muss immer die optimale Befriedigung der Benutzerbedürfnisse sein. - Kompetente Einführung - Nach einer kurzen geschichtlichen Darstellung der Zeitrechnung an sich und der bibliothekarischen Regelentwicklung wendet sich die Autorin den wichtigsten Sacherschließungswerkzeugen der westlichen WeIt zu, zum einen den beiden internationalen Universalklassifikationen, DDC und UDK, und zum anderen den drei Schlagwortsystemen LCSH, Rameau und SWD,wobei sieden Schwerpunkt auf die verbalen Sacherschließungssysteme legt. LCSH, Rameau und SWD mit RSWK werden kompetent und ausführlich in 164 von 316 Seiten mit ihrer Entwicklungsgeschichte und ihren Unterschieden dargestellt. Jutta Frommeyer ist hier eine gute vergleichende Einführung in die großen verbalen Sacherschließungssysteme gelungen und zwar nicht nur für Anfänger, sondern auch für praxis-erfahrene Sacherschließer. Die Darstellung von Zeitaspekten nach LCSH kann nach sechs verschiedenen Varianten erfolgen. Es gibt keine allgemeinen subdivisions für Zeitangaben. Rameau stimmt in seiner Struktur mit den LCSH überein, weicht aber bei der Indexierung bezüglich der subdivisions von den LCSH ab. Rameau hat eine allgemein zu verwendende Liste (subdivision) mit ca. 40 Unterteilungen für den Zeitaspekt. Nach RSWK wird der Zeitaspekt durch so genannte Zeitschlagwörter wiedergegeben, die wie auch bestimmte Formalschlagwörter durch Jahreszahlen erweitert werden können. Der im Dokument behandelte Zeitabschnitt wird für die Beschlagwortung herangezogen. Vorgegebene Zeituntergliederungen für bestimmte Themenbereiche wie bei LCSH und Rameau gibt es bei RSWK nicht. Zwischen den Schlagwortsystemen gibt es unterschiedliche Indexierungsregeln, wann ein Zeitschlagwort benutzt werden soll oder nicht.
    - Retrievalmöglichkeiten - Ein Test der Retrievalmöglichkeiten von Zeitangaben in den Online-Katalogen der LoC, BnF und DDB zeigte, dass für ein optimales Suchergebnis viele Recherche-Schritte und Regelwerkskenntnisse notwendig sind, eine aus Nutzersicht unbefriedigende Bilanz. Zum Beispiel muss für Suchanfragen nach Jahreszahlen der Zeitraum genauso angegeben werden, wie es bei der Indexierung geschah, oder eine Suche mit Epochenbegriffen und zeitimmanenten Schlagwörtern erfordert die genaue Kenntnis der Ansetzungsregeln für solche Deskriptoren. Die angebotenen Schlagwortketten sind eine Suchhilfe, erlauben aber keine Sortierung nach der Zeitenabfolge. Der größte Mangel ist, dass alle Zeitcodierungen nur als Zeichen, nicht als Zahlen, erkennbar sind, sodass bei der Suche nur ein Zeichenabgleich erfolgt und keine Sortierung nach Zahlen möglich ist. Jutta Frommeyer stellt die Retrievalmöglichkeiten der drei genannten Bibliothekskataloge verschiedenen anderen Datenbanken gegenüber, die eine Suche nach Zeitangaben anbieten. Die Suchmöglichkeiten bei den Allgemeinenzyklopädien (»Encyclopedia Britannica«, »Brockhaus-Enzyklopädie«, »Encarta«) sind vielfältig und elaboriert. Zeitimmanente Begriffe sind chronologisch angeordnet und auch grafisch durch Zeitschienen dargestellt, von denen aus auf ein Jahr oder einen Zeitbegriff gesprungen werden kann. Die Datenbank »Historical abstracts« bietet den Zeitraum, der in einem Dokument behandelt wird, über eine spezielle Codierung an. Die »Jahresberichte für deutsche Geschichte« bieten für das Zeitretrieval eine Tabelle mit 14 verschiedenen Möglichkeiten; die weitere Differenzierung der Suchanfrage erfolgt hier durch andere Sacherschließungselemente wie eine ausgefeilte Klassifikation und eine Schlagwortliste. - Modell zum optimalen Zeitretrieval - Aufgrund ihrer Untersuchungen entwickelt die Autorin ein theoretisches Modell für ein optimales Zeitretrieval in allgemeinbibliografischen Datenbanken mit den drei Elementen Zeitcode, Chronikcode und Chroniknormdatei. Damit die Zeitcodierungen als Zahlen und nicht als Zeichen erkennbar sind, müssen sie in einem besonderen numerischen Feld (Zeitcode) abgelegt werden; mit der Möglichkeit, nach Zeiträumen zu suchen (Größer-, Kleiner- und Gleichoperatoren). Die Zeitspannen von Zeitbegriffen werden als Chronikcode in der gleichen Datenstruktur wie der Zeitcode bei den Normdatensätzen ergänzt. Für bestimmte Zeitbegriffe ist eine Normierung notwendig (z. B. Mittelalter). Bei kulturkreisabhängigen Zeitbegriffen kann die zeitliche Codierung verschieden aussehen. Die Chroniknormdatei soll die chronologische Relation der zeitimmanenten Begriffe darstellen und bei umfassenden Zeitspannen große Trefferzahlen vermeiden. Da zeitimmanente Begriffe über alle Sachgebiete streuen, muss für das Retrieval eine sachliche Einschränkung gegeben sein. Jutta Frommeyer schlägt dafür eine international angewandte Klassifikation vor. Die Autorin stellt ein Retrievalmodell dar, um das Zusammenwirken von Zeitcode,Chronikcode und Chroniknormdatei zu demonstrieren. Dabei hat sie sich an der heutigen Menü-Oberfläche für OPACs orientiert und ein neues Suchfeld »Zeitabschnitt« mit verschiedenen Unterteilungen eingeführt. Ihre Beispiele sind nachvollziehbar und verdeutlichen ihren Vorschlag. Die Umsetzung eines solchen Modells hat Auswirkungen auf die vorhandenen Datenstrukturen; auch wird eine Annäherung der Regeln für die Schlagwortvergabe nach RSWK, Rameau und LCSH notwendig sein, wenn so eine Suche international angeboten werden soll.
    - Zum Schluss - Das Buch liest sich gut und ist übersichtlich gegliedert mit zehn Kapiteln und einem Anhang für verschiedene, den Zeitaspekt betreffende Hilfstabellen der vorgestellten Sacherschließungssysteme. Wo möglich und angebracht, insbesondere bei der Darstellung der Retrievalmöglichkeiten der untersuchten elektronischen Informationsmittel, werden zur Veranschaulichung Abbildungen eingesetzt. Allerdings sind der Qualität Grenzen gesetzt, weil im Schwarz-Druck ein ursprünglich farbiges Benutzer-Interface manchmal fast seine ganze Aussagekraft verliert. Hier wäre es wahrscheinlich besser gewesen, die benötigten Abbildungen vorher über ein Grafik-Programm in eine richtige Schwarz-Weiß-Abbildung umgesetzt zu haben. Das Literaturverzeichnis ist umfangreich und sehr übersichtlich gestaltet. Das Buch bietet denjenigen, die sich mit Sacherschließung oder OPAC-Entwicklung beschäftigen, wichtige Anregungen. Die Notwendigkeit von Sacherschließung gerade im Zeitalter der Globalisierung und des Internets bedeutet, dass bei der Weiterentwicklung von nationalen Regelwerken die internationalen Bedürfnisse berücksichtigt werden müssen. Es bleibt zu hoffen, dass die Ideen von Frau Frommeyer aufgegriffen, die deutsche Sprachgrenze überwunden und bei den Regelwerksdiskussionen und Formatentwicklungen international berücksichtigt werden."
  19. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.02
    0.017874265 = product of:
      0.085796475 = sum of:
        0.019074813 = weight(_text_:und in 1409) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1409,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1409, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.023730025 = weight(_text_:der in 1409) [ClassicSimilarity], result of:
          0.023730025 = score(doc=1409,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4836247 = fieldWeight in 1409, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.024024887 = score(doc=1409,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.5 = coord(1/2)
        0.019074813 = weight(_text_:und in 1409) [ClassicSimilarity], result of:
          0.019074813 = score(doc=1409,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 1409, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.011904384 = product of:
          0.023808768 = sum of:
            0.023808768 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.023808768 = score(doc=1409,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  20. Buß, M.: Unternehmenssprache in internationalen Unternehmen : Probleme des Informationstransfers in der internen Kommunikation (2005) 0.02
    0.01707903 = product of:
      0.08197934 = sum of:
        0.017882636 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.017882636 = score(doc=1482,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3673144 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.016118698 = weight(_text_:des in 1482) [ClassicSimilarity], result of:
          0.016118698 = score(doc=1482,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 1482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.022655133 = weight(_text_:der in 1482) [ClassicSimilarity], result of:
          0.022655133 = score(doc=1482,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46171808 = fieldWeight in 1482, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.017882636 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.017882636 = score(doc=1482,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3673144 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1482)
        0.00744024 = product of:
          0.01488048 = sum of:
            0.01488048 = weight(_text_:22 in 1482) [ClassicSimilarity], result of:
              0.01488048 = score(doc=1482,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19345059 = fieldWeight in 1482, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1482)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    In der vorliegenden Arbeit werden die Auswirkungen einer Unternehmenssprache auf den Informationstransfer in der internen Kommunikation internationaler Unternehmen untersucht. Eine Unternehmenssprache ist die von der Unternehmensleitung festgelegte, offizielle Sprache in der internen Kommunikation. Die Arbeit beginnt mit einer Analyse der Aufgaben und Ziele von Sprache, wonach im zweiten Teil das Unternehmen und die interne Kommunikation betrachtet werden. Auf dieser Grundlage werden die Auswirkungen der Unternehmenssprache auf die internen Netzwerke eines Unternehmens untersucht. Netzwerke bilden die Basis zum erfolgreichen Informationstransfer und entstehen durch Kommunikation. Im Unternehmen existieren formelle und informelle Netzwerke, die auf der Kommunikation zwischen Menschen direkt oder über Hilfsmittel sowie auf der Kommunikation zwischen Mensch und Maschine beruhen. Es stellt sich heraus, dass eine Unternehmenssprache positiv auf die Innenbindung der technischen Netzwerkstruktur wirkt. Dadurch ergeben sich Kosten- und Zeitvorteile. Innerhalb der zwischenmenschlichen Netzwerke bildet eine Unternehmenssprache die Basis für das Gelingen einer unternehmensweiten Zusammenarbeit. Synergieeffekte sind zu erwarten, welche die Leistung des Unternehmens steigern. In Bezug auf die Mitarbeiter, deren Muttersprache jedoch nicht die Unternehmenssprache ist, muss mit erheblichen Schwierigkeiten gerechnet werden. Es wird ein Bezug zwischen der Relevanz der beschriebenen Vor- und Nachteile und der Organisationsstruktur hergestellt und Empfehlungen für eine erfolgreiche Umsetzung des Konzepts 'Unternehmenssprache' gegeben.
    Date
    22. 5.2005 18:25:26

Languages

  • d 210
  • e 7
  • f 2
  • More… Less…

Types

Themes