Search (676 results, page 1 of 34)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.44
    0.43882293 = product of:
      1.1701945 = sum of:
        0.069775805 = product of:
          0.20932741 = sum of:
            0.20932741 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.20932741 = score(doc=973,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.20932741 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20932741 = score(doc=973,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.0143061085 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=973,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20932741 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20932741 = score(doc=973,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.025169495 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.025169495 = score(doc=973,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20932741 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20932741 = score(doc=973,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20932741 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20932741 = score(doc=973,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.20932741 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.20932741 = score(doc=973,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.0143061085 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=973,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.375 = coord(9/24)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.21750894 = product of:
      0.5220215 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.08721976 = score(doc=4388,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.016118698 = weight(_text_:des in 4388) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4388,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.020081628 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.020081628 = score(doc=4388,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.08721976 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4388,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010324545 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.010324545 = score(doc=4388,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.41666666 = coord(10/24)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.22
    0.21664858 = product of:
      0.5199566 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.08721976 = score(doc=1000,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08721976 = score(doc=1000,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010324545 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010324545 = score(doc=1000,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.013160862 = weight(_text_:des in 1000) [ClassicSimilarity], result of:
          0.013160862 = score(doc=1000,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08721976 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08721976 = score(doc=1000,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.020974576 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.020974576 = score(doc=1000,freq=24.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08721976 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08721976 = score(doc=1000,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08721976 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08721976 = score(doc=1000,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.08721976 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.08721976 = score(doc=1000,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010324545 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.010324545 = score(doc=1000,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.41666666 = coord(10/24)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.13
    0.1330617 = product of:
      0.5322468 = sum of:
        0.10466371 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10466371 = score(doc=563,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10466371 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10466371 = score(doc=563,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10466371 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10466371 = score(doc=563,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10466371 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10466371 = score(doc=563,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.10466371 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.10466371 = score(doc=563,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.017856576 = score(doc=563,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.13
    0.12975678 = product of:
      0.3892703 = sum of:
        0.023258602 = product of:
          0.069775805 = sum of:
            0.069775805 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.069775805 = score(doc=701,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0074449074 = weight(_text_:des in 701) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=701,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.009687742 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.009687742 = score(doc=701,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.069775805 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.069775805 = score(doc=701,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(8/24)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  6. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.13
    0.129162 = product of:
      0.516648 = sum of:
        0.023258602 = product of:
          0.069775805 = sum of:
            0.069775805 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.069775805 = score(doc=5820,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.09867789 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.09867789 = score(doc=5820,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.09867789 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.09867789 = score(doc=5820,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.09867789 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.09867789 = score(doc=5820,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.09867789 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.09867789 = score(doc=5820,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.09867789 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.09867789 = score(doc=5820,freq=4.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.25 = coord(6/24)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  7. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.12
    0.11629301 = product of:
      0.46517205 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.08721976 = score(doc=4997,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4997,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08721976 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4997,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08721976 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4997,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08721976 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4997,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.08721976 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.08721976 = score(doc=4997,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.25 = coord(6/24)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  8. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.12
    0.11629301 = product of:
      0.46517205 = sum of:
        0.029073253 = product of:
          0.08721976 = sum of:
            0.08721976 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.08721976 = score(doc=855,freq=2.0), product of:
                0.18622838 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021966046 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.08721976 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08721976 = score(doc=855,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08721976 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08721976 = score(doc=855,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08721976 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08721976 = score(doc=855,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08721976 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08721976 = score(doc=855,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.08721976 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.08721976 = score(doc=855,freq=2.0), product of:
            0.18622838 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021966046 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.25 = coord(6/24)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  9. Younansardaroud, H.: Inhaltliche Anpassung der RVK als Aufstellungsklassifikation : Projekt Bibliotheksneubau Kleine Fächer der FU Berlin, Islamwissenschaft (2010) 0.07
    0.06726991 = product of:
      0.23063968 = sum of:
        0.015994716 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.015994716 = score(doc=218,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.07613816 = weight(_text_:methodik in 218) [ClassicSimilarity], result of:
          0.07613816 = score(doc=218,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.011167361 = weight(_text_:des in 218) [ClassicSimilarity], result of:
          0.011167361 = score(doc=218,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.026197236 = weight(_text_:der in 218) [ClassicSimilarity], result of:
          0.026197236 = score(doc=218,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5339072 = fieldWeight in 218, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.07613816 = weight(_text_:methodik in 218) [ClassicSimilarity], result of:
          0.07613816 = score(doc=218,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 218) [ClassicSimilarity], result of:
              0.018018665 = score(doc=218,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 218, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=218)
          0.5 = coord(1/2)
        0.015994716 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.015994716 = score(doc=218,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 218, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=218)
      0.29166666 = coord(7/24)
    
    Abstract
    Im Zusammenhang mit der Bibliotheksstrukturreform der Freien Universität Berlin soll für die sog. "Kleinen Fächer" des Fachbereichs Geschichts- und Kulturwissenschaften eine integrierte Bibliothek mit einem gemeinsamen Standort entstehen. Die Bestände der Fachbibliotheken der "Kleinen Fächer" sollen retrokatalogisiert und für eine Freihandaufstellung schrittweise nach der Regensburger Verbundklassifikation (= RVK) einheitlich erschlossen werden. Im Rahmen dieser Masterarbeit soll untersucht werden, inwieweit die RVK den Bedürfnissen der Fachbibliothek der Islamwissenschaft entspricht. Dabei soll beantwortet werden, ob die RVK für die nach der Haussystematik aufgestellten islamwissenschaftlichen Bibliotheksbestände ausreicht bzw. aussagekräftig ist. Die Haussystematik ist veraltet und leidet vor allem unter einer inkonsistenten Anwendung. Die Mängel werden anhand von ausgewählten Beispielen aufgezeigt. Durch Anwendung der Crosskonkordanz-Methodik werden Verknüpfungen zwischen den beiden Systematiken herausgearbeitet und Erweiterungsmöglichkeiten der RVK für die islamwissenschaftlichen Bestände aufgezeigt.
    Date
    4. 6.2012 17:54:29
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  10. Glaser, W.R.: Soziales und instrumentales Handeln : Probleme der Technologie bei Arnold Gehlen und Jürgen Habermas (1972) 0.05
    0.05384747 = product of:
      0.21538988 = sum of:
        0.016859911 = weight(_text_:und in 1014) [ClassicSimilarity], result of:
          0.016859911 = score(doc=1014,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 1014, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.013160862 = weight(_text_:des in 1014) [ClassicSimilarity], result of:
          0.013160862 = score(doc=1014,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 1014, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.07596915 = weight(_text_:spezielle in 1014) [ClassicSimilarity], result of:
          0.07596915 = score(doc=1014,freq=4.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.51980174 = fieldWeight in 1014, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.013539031 = weight(_text_:der in 1014) [ClassicSimilarity], result of:
          0.013539031 = score(doc=1014,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27592933 = fieldWeight in 1014, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.079001 = weight(_text_:allgemeines in 1014) [ClassicSimilarity], result of:
          0.079001 = score(doc=1014,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.63036615 = fieldWeight in 1014, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
        0.016859911 = weight(_text_:und in 1014) [ClassicSimilarity], result of:
          0.016859911 = score(doc=1014,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 1014, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1014)
      0.25 = coord(6/24)
    
    Classification
    MS 4850: MN-MS Soziologie / MS Spezielle Soziologien / Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Theorien des sozio-kulturellen Wandels (Innovation, Modernisierung, Postmoderne)
    MR 5150: MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Allgemeine soziologische Handlungstheorien
    CI 2340: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Gesamtausgaben, Werke, Gesammelte Werke
    CI 2277: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Abhandlungen, Studien
    RVK
    MS 4850: MN-MS Soziologie / MS Spezielle Soziologien / Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Theorien des sozio-kulturellen Wandels (Innovation, Modernisierung, Postmoderne)
    MR 5150: MN-MS Soziologie / MR Sozialwissenschaftliche Theorien und Methoden / Allgemeine soziologische Handlungstheorien
    CI 2340: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Gesamtausgaben, Werke, Gesammelte Werke
    CI 2277: CA-CK Philosophie / CD-CK Geschichte der Philosophie / Abhandlungen, Studien
  11. Mötsch, B.: Informationelle Bildung in der Schule unter besonderer Berücksichtigung des Internet : Aspekte und Grundlagen curricularer Konzeptionen (1997) 0.04
    0.04417122 = product of:
      0.21202187 = sum of:
        0.025790704 = weight(_text_:und in 5928) [ClassicSimilarity], result of:
          0.025790704 = score(doc=5928,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 5928, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5928)
        0.015793033 = weight(_text_:des in 5928) [ClassicSimilarity], result of:
          0.015793033 = score(doc=5928,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 5928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5928)
        0.029957687 = weight(_text_:der in 5928) [ClassicSimilarity], result of:
          0.029957687 = score(doc=5928,freq=34.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.61054623 = fieldWeight in 5928, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5928)
        0.114689745 = weight(_text_:unterricht in 5928) [ClassicSimilarity], result of:
          0.114689745 = score(doc=5928,freq=4.0), product of:
            0.1639278 = queryWeight, product of:
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.021966046 = queryNorm
            0.69963574 = fieldWeight in 5928, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.462781 = idf(docFreq=68, maxDocs=44218)
              0.046875 = fieldNorm(doc=5928)
        0.025790704 = weight(_text_:und in 5928) [ClassicSimilarity], result of:
          0.025790704 = score(doc=5928,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 5928, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5928)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Erziehungs- und Bildungsauftrag der Schule umfaßt informationelle Bildung als eine der Schlüsselkompetenzen der Informationsgesellschaft. Im Rahmen der vorliegenden Arbeit werden die Grundlagen für die aus dieser Aussage abgeleiteten notwendigen curricularen Ergänzungen und Neuerungen herausgearbeitet. Im Zentrum steht die Überführung des Erziehungsziels "informationelle Bildung" in eine operationalisierbare Zieltaxonomie, die in Basiswissen, das Technologie- und Medienkompetenz umfaßt, in Handlungswissen unter den Aspekten Information, Präsentation, Kommunikation, Transaktion und in Metakompetenzen aufgeschlüsselt wird. Die Herleitung der Ziele erfolgt aufgrund der als maßgeblich erachteten Strukturmerkmale, die sich aus der Konstellation der sich herausbildenden Informationsgesellschaft, der Telemediatisierung und der Institution Schule ableiten. Für die Realisierung im Unterricht wird die Modifikation der gegebenen schulpädagogischen Konzepte "informationstechnische Grundbildung" und "Medienerziehung" sowie der Ansatz der handlungsorientierten Pädagogik vorgeschlagen, an Einsatzmöglichkeiten im Unterricht konkretisiert und hinsichtlich der Sicherung der Rahmenbedingungen bezüglich inner- und außerschulischer Kooperation sowie personeller und technischer Ressourcen diskutiert.
    Content
    "... informationelle Bildung meint die Kompetenz, sich die für bestimmte Situationen und Probleme notwendigen Informationen verschaffen und so verarbeiten zu können, daß sie problemlösend und handlungslegitimierend umgesetzt werden können. ... Informationelle Bildung umfaßt, ... , zunächst heterogene Einzelziele, die erst in ihrer gegenseitigen Durchdringung das Gesamtziel informationelle Bildung entwickeln." (S.5)
  12. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.04
    0.04081286 = product of:
      0.16325144 = sum of:
        0.022869896 = weight(_text_:und in 2442) [ClassicSimilarity], result of:
          0.022869896 = score(doc=2442,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46975413 = fieldWeight in 2442, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.0074449074 = weight(_text_:des in 2442) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=2442,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 2442, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.024219355 = weight(_text_:der in 2442) [ClassicSimilarity], result of:
          0.024219355 = score(doc=2442,freq=50.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4935974 = fieldWeight in 2442, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.0632008 = weight(_text_:allgemeines in 2442) [ClassicSimilarity], result of:
          0.0632008 = score(doc=2442,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.5042929 = fieldWeight in 2442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.022869896 = weight(_text_:und in 2442) [ClassicSimilarity], result of:
          0.022869896 = score(doc=2442,freq=46.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46975413 = fieldWeight in 2442, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.022646595 = product of:
          0.04529319 = sum of:
            0.04529319 = weight(_text_:deutschland in 2442) [ClassicSimilarity], result of:
              0.04529319 = score(doc=2442,freq=8.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.42691165 = fieldWeight in 2442, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2442)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
    Classification
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Footnote
    Rez. in: Bibliothek: Forschung und Praxis 28(2004) H.1, S.132-135 (H. Flachmann)
    RSWK
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronisches Informationsmittel
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
    RVK
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Series
    Texte und Untersuchungen zur Archivpflege; Bd.14
    Subject
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronisches Informationsmittel
    Deutschland / Archivbestand / Bibliotheksbestand / Bestandserschließung / Harmonisierung / Elektronische Medien (BVB)
  13. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.04
    0.040271264 = product of:
      0.19330207 = sum of:
        0.012389454 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2482,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07613816 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2482,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.016246837 = weight(_text_:der in 2482) [ClassicSimilarity], result of:
          0.016246837 = score(doc=2482,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3311152 = fieldWeight in 2482, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.07613816 = weight(_text_:methodik in 2482) [ClassicSimilarity], result of:
          0.07613816 = score(doc=2482,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.47935072 = fieldWeight in 2482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
        0.012389454 = weight(_text_:und in 2482) [ClassicSimilarity], result of:
          0.012389454 = score(doc=2482,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2544829 = fieldWeight in 2482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2482)
      0.20833333 = coord(5/24)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
  14. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.04
    0.03950637 = product of:
      0.15802547 = sum of:
        0.017521333 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1751,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.03806908 = weight(_text_:methodik in 1751) [ClassicSimilarity], result of:
          0.03806908 = score(doc=1751,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.023022106 = weight(_text_:des in 1751) [ClassicSimilarity], result of:
          0.023022106 = score(doc=1751,freq=34.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.37846172 = fieldWeight in 1751, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.023822539 = weight(_text_:der in 1751) [ClassicSimilarity], result of:
          0.023822539 = score(doc=1751,freq=86.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.48551017 = fieldWeight in 1751, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.03806908 = weight(_text_:methodik in 1751) [ClassicSimilarity], result of:
          0.03806908 = score(doc=1751,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.23967536 = fieldWeight in 1751, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.017521333 = weight(_text_:und in 1751) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1751,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1751, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.25 = coord(6/24)
    
    Abstract
    Das Thema der Wissensklassifikationen begleitet uns über alle vier epochalen Konvergenz-Zyklen im Wissenstransfer von der schriftlichen, der analogen über die digitalen bis zur künstlichen neuronalen Welt als Ordnungsprinzipien für eine Orientierung in unserer Wissenslandschaft. Die Explosion des Verfügungswissens wird geprägt durch eine immer weitere Fortschreitung zur Ausdifferenzierung der Wissenschaftsdisziplinen, die digitale Speicherung des "Weltwissens" mit ihren Web-Technologien und dem Ubiquitous Computing als Bestandteil des "Internets der Dinge". Die klassischen Konzepte der Wissensorganisation durch ihre Struktur der Dendrogramme und der orthogonalen Koordinatensysteme werden den Anforderungen für eine aufgaben- und problemorientierten Wissensnavigation nicht mehr gerecht, um die Qualität des Wissens aus der Quantität so zu selektieren, dass damit eine kompetente Unterstützung der Entscheidungsprozesse gewährleistet werden kann. Die Berechnung semantischer Relationen durch statistische, hierarchischagglomerative Algorithmen u.a. mit Cluster- und Vektorenmodellen stoßen an ihre Grenzen in der Modellierung von Wissensräumen.
    Eine Neuorientierung der Wissensarchitektur bei der Generierung und Gestaltung der konstellativen dynamischen und mehrdimensionalen Wissensräume wird eine zentrale Herausforderung in der digitalen Wissenswelt werden. Die <Einheit des Wissens> wird dabei nicht mehr als universeller interdisziplinärer Wissensraum mit dem Problem <lost within the space of knowledge> verstanden, sondern assistierende Netz- Avatare konfigurieren den erforderlichen Wissensraum durch die Orientierung des konstellativen Nutzerprofils selbstständig. Es wäre jedoch vermessen, hier den Anspruch eines neuen Ordnungsprinzips des Wissens zu erheben. Mit dieser Arbeit können aber Impulse für einen "semantischen Code des Wissens" gegeben werden, wie durch eine Klassifikation der Wissensräume ein neues Konzept zur "Einheit des Wissens" in einem Raum-Zeit-Gefüge entstehen kann. Dabei werden wir uns auch der fundamentalen Frage stellen müssen, wie sich eine neue Wissenskultur definiert, in der das Jahrtausende währende Kulturerbe der Schriftlichkeit des Wissens sich zu einer Flüchtigkeit des Wissens als Gebrauchsgut hin entwickelt. Es ist die gesellschaftliche Position der genuinen intellektuellen Leistung des Urhebers und Schöpfers einer Schriftlichkeit, die er an die "Wisdom of Community" abgibt. Parallel hierzu finden auch Divergenz-Prozesse statt, in der sich die Schriftlichkeit von dem Medium löst, um selbst laufend neue Konvergenz- Prozesse einzugehen, in denen nicht mehr der Inhalt das Medium bestimmt, sondern das Medium die charakteristischen Merkmale der Inhalte definiert.
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
    Content
    Dissertation zur Erlangung des Grades eines Doktors der Humanbiologie Doctor rerum biologicarum humanarum Vgl.: https://www.deutsche-digitale-bibliothek.de/binary/SKXBHJSDCMK7JOFRAVUCAMAU6UL5P5IR/full/1.pdf.
  15. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.04
    0.03944647 = product of:
      0.15778588 = sum of:
        0.038459353 = product of:
          0.11537806 = sum of:
            0.11537806 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.11537806 = score(doc=3396,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
        0.02064909 = weight(_text_:und in 3396) [ClassicSimilarity], result of:
          0.02064909 = score(doc=3396,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 3396, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.016118698 = weight(_text_:des in 3396) [ClassicSimilarity], result of:
          0.016118698 = score(doc=3396,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 3396, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.02345029 = weight(_text_:der in 3396) [ClassicSimilarity], result of:
          0.02345029 = score(doc=3396,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.47792363 = fieldWeight in 3396, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
        0.038459353 = product of:
          0.11537806 = sum of:
            0.11537806 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.11537806 = score(doc=3396,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.33333334 = coord(1/3)
        0.02064909 = weight(_text_:und in 3396) [ClassicSimilarity], result of:
          0.02064909 = score(doc=3396,freq=24.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 3396, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3396)
      0.25 = coord(6/24)
    
    Abstract
    Der praktische Einsatz der Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung sowie als Aufstellungssystematik in wissenschaftlichen Bibliotheken des deutschen Sprachraums hat wenig Tradition und wurde bisher von der Literatur kaum aufgearbeitet. Nach einer Darstellung der Rahmenbedingungen und der Problemlage in der Fachbereichsbibliothek Afrikanistik/Orientalistik der Universität Wien, gibt der Autor einen Überblick über die Erfahrungen mit und die Einschätzung von DDC in vergleichbaren wissenschaftlichen Bibliotheken vor allem im deutschen und englischen Sprachraum, definiert Kriterien für eine neue Systematik und klärt inwieweit diese mit dem Einsatz von DDC erfüllbar sind. Ausgehend von den quantitativen und räumlichen Rahmenbedingungen und der Segmentierung des Bestandes im Hinblick auf die Erfordernisse der Reklassifikation, sowie auf der Basis eigener Erfahrungen und Plausibilitätsprüfungen schätzt der Autor anhand von drei Varianten den nötigen Personal- und Zeitaufwand für den Einsatz von DDC im Rahmen eines Reklassifizierungsprojektes. Abschließend enthält die vorliegende Arbeit praktische Erfahrungen im Umgang mit der DDC am Beispiel des Themenbereiches "Islamwissenschaft", durch die auf einige Besonderheiten und Probleme bei der Verwendung von DDC für die Reklassifizierung hingewiesen wird.
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  16. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.04
    0.038916573 = product of:
      0.15566629 = sum of:
        0.013194968 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.013194968 = score(doc=4495,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.044413924 = weight(_text_:methodik in 4495) [ClassicSimilarity], result of:
          0.044413924 = score(doc=4495,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.27962124 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.018425206 = weight(_text_:des in 4495) [ClassicSimilarity], result of:
          0.018425206 = score(doc=4495,freq=16.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.302893 = fieldWeight in 4495, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.022023305 = weight(_text_:der in 4495) [ClassicSimilarity], result of:
          0.022023305 = score(doc=4495,freq=54.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.44884127 = fieldWeight in 4495, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.044413924 = weight(_text_:methodik in 4495) [ClassicSimilarity], result of:
          0.044413924 = score(doc=4495,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.27962124 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
        0.013194968 = weight(_text_:und in 4495) [ClassicSimilarity], result of:
          0.013194968 = score(doc=4495,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.27102837 = fieldWeight in 4495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.25 = coord(6/24)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  17. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.04
    0.035505865 = product of:
      0.14202346 = sum of:
        0.017521333 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1709,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.015793033 = weight(_text_:des in 1709) [ClassicSimilarity], result of:
          0.015793033 = score(doc=1709,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 1709, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.06446196 = weight(_text_:spezielle in 1709) [ClassicSimilarity], result of:
          0.06446196 = score(doc=1709,freq=2.0), product of:
            0.14615025 = queryWeight, product of:
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.021966046 = queryNorm
            0.44106638 = fieldWeight in 1709, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.653462 = idf(docFreq=154, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.017797519 = weight(_text_:der in 1709) [ClassicSimilarity], result of:
          0.017797519 = score(doc=1709,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36271852 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.017521333 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.017521333 = score(doc=1709,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.008928288 = product of:
          0.017856576 = sum of:
            0.017856576 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.017856576 = score(doc=1709,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  18. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.03
    0.033254456 = product of:
      0.13301782 = sum of:
        0.030767484 = product of:
          0.09230245 = sum of:
            0.09230245 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.09230245 = score(doc=4089,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
        0.020231893 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.020231893 = score(doc=4089,freq=36.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.012894959 = weight(_text_:des in 4089) [ClassicSimilarity], result of:
          0.012894959 = score(doc=4089,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21198097 = fieldWeight in 4089, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.018124105 = weight(_text_:der in 4089) [ClassicSimilarity], result of:
          0.018124105 = score(doc=4089,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.36937445 = fieldWeight in 4089, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
        0.030767484 = product of:
          0.09230245 = sum of:
            0.09230245 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.09230245 = score(doc=4089,freq=2.0), product of:
                0.21419042 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.021966046 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.33333334 = coord(1/3)
        0.020231893 = weight(_text_:und in 4089) [ClassicSimilarity], result of:
          0.020231893 = score(doc=4089,freq=36.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 4089, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4089)
      0.25 = coord(6/24)
    
    Abstract
    In der vorliegenden Arbeit wurde die Frage »Was ist digitale Mündigkeit?« untersucht. Dabei war das Ziel, die Merkmale und Dimensionen von digitaler Mündigkeit literaturbasiert aufzudecken und die Erkenntnisse in eine erste Definition zu überführen. Dies geschah wie folgt: In der Einleitung wurde zunächst umrissen, wie es zur Wahl des Forschungsthemas kam, inwiefern digitale Mündigkeit die Gesellschaft verändert und welche Bereiche der Lebenswelt mit diesem Begriff angesprochen sind. Daraus erfolgte die Herleitung der Forschungsfrage. Im zweiten Kapitel folgte sodann die Darlegung der theoretisch angelegten Forschungsmethode, die in diesem Fall auf einer zunächst breiten, dann enger gefassten Literaturrecherche basierte. Ergänzend wurde auf die Methode der philosophischen Begriffsanalyse hingewiesen, die für die spätere Definition zum Einsatz kommen sollte. Mit Kapitel 3 wurde sodann in Fachtermini und relevante Begriffe eingeführt, gefolgt von einer Darlegung der Bedeutung von Big Data, Codes und Algorithmen für Individuum und Gesellschaft. Dies geschah anhand exemplarisch aus redaktionellen Beiträgen herausgegriffener Themen. Anschließend wurde der aktuelle Forschungsstand zum Thema präsentiert. Dies erfolgte jedoch vornehmlich aus Gründen eines empirischen Überblicks, nicht, weil aus diesen Studien Daten gewonnen werden sollten (denn die Datengewinnung erfolgte aus der Literatur). Danach wurde digitale Mündigkeit als medienpädagogisches Feld erörtert. In Kapitel 4 wurden relevante Theorien zur Mündigkeit präsentiert. Die Extrakte aus den verschiedenen Ansätzen wurden in einem abschließenden Unterkapitel für die spätere Definition von digitaler Mündigkeit zusammengefasst. Inwiefern digitale Mündigkeit mit den Konzepten der Medienkompetenz und Medienbildung in Verbindung gebracht werden kann, wurde in Kapitel 5 untersucht. Zu diesem Zweck wurden zunächst Entwicklung und Ansätze des Medienkompetenzbegriffs erläutert, gleiches geschah anschließend mit dem Medienbildungsbegriff. Nach einer Darstellung des langjährigen bildungswissenschaftlichen Diskurses um Medienkompetenz und/oder Medienbildung, wurden schließlich die Verhältnisse zwischen digitaler Mündigkeit, Medienkompetenz und Medienbildung betrachtet. Alle Vorarbeiten mündeten hiernach im sechsten Kapitel, in welchem zunächst der Begriff der allgemeinen Mündigkeit analysiert und sodann die Begriffskomponente 'digital' betrachtet wurde. Die in den vorangegangenen Kapiteln geknüpften Fäden liefen schlussendlich in einer fundierten Definition von digitaler Mündigkeit zusammen. Der Hauptteil endete mit einem Blick auf verwandte Begriffe.
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
    Imprint
    Hagen : FernUniversität / Fakultät Kultur- und Sozialwissenschaften / Institut für Bildungswissenschaft und Medienforschung
  19. Schwarz, H.: ¬Das Deutsche Bibliotheksinstitut : im Spannungsfeld zwischen Auftrag und politischem Interesse (2017) 0.03
    0.03180005 = product of:
      0.15264024 = sum of:
        0.016690461 = weight(_text_:und in 3725) [ClassicSimilarity], result of:
          0.016690461 = score(doc=3725,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 3725, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.013028587 = weight(_text_:des in 3725) [ClassicSimilarity], result of:
          0.013028587 = score(doc=3725,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 3725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.078207 = weight(_text_:allgemeines in 3725) [ClassicSimilarity], result of:
          0.078207 = score(doc=3725,freq=4.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.62403065 = fieldWeight in 3725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.016690461 = weight(_text_:und in 3725) [ClassicSimilarity], result of:
          0.016690461 = score(doc=3725,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34282678 = fieldWeight in 3725, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.028023731 = product of:
          0.056047462 = sum of:
            0.056047462 = weight(_text_:deutschland in 3725) [ClassicSimilarity], result of:
              0.056047462 = score(doc=3725,freq=4.0), product of:
                0.10609499 = queryWeight, product of:
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.021966046 = queryNorm
                0.5282762 = fieldWeight in 3725, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.829954 = idf(docFreq=959, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3725)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Das 1978 gegründete Deutsche Bibliotheksinstitut als zentrale Einrichtung des Deutschen Bibliothekswesens - sein Auf - und Abstieg.
    BK
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    06.04 Ausbildung, Beruf, Organisationen Information und Dokumentation
    Classification
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    06.04 Ausbildung, Beruf, Organisationen Information und Dokumentation
    RSWK
    Deutschland / Deutsches Bibliotheksinstitut / Bibliothek / Geschichte 1978-2003
    Subject
    Deutschland / Deutsches Bibliotheksinstitut / Bibliothek / Geschichte 1978-2003
  20. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.03
    0.029775087 = product of:
      0.11910035 = sum of:
        0.01980591 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.01980591 = score(doc=1447,freq=138.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.009118112 = weight(_text_:des in 1447) [ClassicSimilarity], result of:
          0.009118112 = score(doc=1447,freq=12.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.14989316 = fieldWeight in 1447, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.017795438 = weight(_text_:fragen in 1447) [ClassicSimilarity], result of:
          0.017795438 = score(doc=1447,freq=4.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.15911217 = fieldWeight in 1447, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.020974576 = weight(_text_:der in 1447) [ClassicSimilarity], result of:
          0.020974576 = score(doc=1447,freq=150.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.42746788 = fieldWeight in 1447, product of:
              12.247449 = tf(freq=150.0), with freq of:
                150.0 = termFreq=150.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.0316004 = weight(_text_:allgemeines in 1447) [ClassicSimilarity], result of:
          0.0316004 = score(doc=1447,freq=8.0), product of:
            0.12532558 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021966046 = queryNorm
            0.25214645 = fieldWeight in 1447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.01980591 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.01980591 = score(doc=1447,freq=138.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
      0.25 = coord(6/24)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    Methodisch gruppiert sich - das wurde schon deutlich - die Arbeit um Termini wie »Leitbilder«, »Modernisierung«, »Rationalisierung«, »Innovation« und will dies mit konkreten Projekten in einer »praxisbezogenen Sichtweise« (so der Klappentext) kontrastieren. Von diesem Zugang her stellt die Arbeit einen durchaus interessanten Ansatz zur historischen Würdigung der Datenverarbeitung und ihrer Rolle im Entwicklungsprozess der Bibliotheken dar. Schwartz will die »Projekte in ihrer Gesamtheit mit übergreifenden Beschreibungsmerkmalen und Entwicklungsphasen, insbesondere Ziele und Leitbilder der Bibliotheksprojekte« betrachten und herausarbeiten (S.4). Problematisch ist allerdings dabei, dass das methodische Vorgehen nicht ausreichend tief erfolgt oder auch nur einmal zusammenfassend reflektiert wird und mit der Auswahl und den ausgewählten »Quellen« selbst völlig unkritisch umgegangen wird. Weder wird klar definiert, was eigentlich unter einem »Leitbild« verstanden wird, noch, was diese Leitbilder eigentlich ausmacht oder was sie sind. Ähnliches gilt für das zugrunde gelegte Material: Werden die DFG-geförderten Projekte als Abbild der Gesamtentwicklung gesehen und wenn dies so gemeint ist, warum wird es nicht deutlich gesagt und entsprechend belegt? Eine nicht begründete affirmative Aussage zum Ende der Arbeit: »Die beschriebenen DFG-Projekte sind aufgrund ihrer thematischen Breite ein Spiegelbild der technischen Entwicklung zum Einsatz der Datenverarbeitung in Bibliotheken.« (S. 162) reicht dazu nicht aus. Wieso wird primär ein Förderprogramm (und das zeitlich teilweise parallele Förderprogramm »Informationsvermittlung in Bibliotheken«) untersucht? Wie betten sich die Aktivitäten in andere Förderaktivitäten der DFG ein und vor allem: Welchen Bezug hatte diese Förderlinie zu den Rahmenplanungen und Positionspapieren der DFG? Schlimmer noch: Einerseits wird ausdrücklich darauf verzichtet, eigene Bewertungen zu Projekten oder auch zu besprochenen Förderaktivitäten abzugeben (S.4 f), stattdessen werden »Kommentare und Bewertungen der Projekte aus vorhandenen Quellen herangezogen« (S.5). Andererseits werden diese (Selbst-)Statements aus dem DFGKontext selbst, in dünner Auswahl aber auch aus der zeitgenössischen Projektberichterstattung der Projektnehmer völlig unkritisch übernommen (S.111 f, 141 ff.). Zwar werden ausführlich Erfolgsparameter für Projekte diskutiert, andererseits aber verbiete sich jede Wertung bzw. Erfolgskontrolle (S.79 ff.). Gütekriterien werden benannt, aber extrem kurz abgehandelt: So ist etwa der Grad der Akzeptanz eines Projekts gerade einmal zwölf Zeilen wert (5.146) und wird auch später nicht weiter berücksichtigt.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    Insgesamt erhält man so mehr eine Materialansammlung zum Thema als eine Aufarbeitung-auch wenn die zum Teil fein gegliederte extreme Kapitelaufteilung etwas anderes suggeriert. Verbunden mit der starken Fußnotenlastigkeit (oft mehr als die Hälfte einer Seite einnehmend mit z.T. kuriosen Auswüchsen, wenn etwa von einer Textstelle auf zwei hintereinander stehende Fußnoten mit inhaltlich nahezu gleichen Aussagen verwiesen wird [S.72, 247/248]) ist die im Übrigen technisch sehr sauber erstellte Arbeit (ein Kolumnenfehler S.64, kaum Tippfehler) aus meiner Sicht keine Leseempfehlung. Wirksamkeit der Projekte? In doppeltem Sinne interessant ist der Hinweis auf weiteren Untersuchungsbedarf (S.222), hier macht Schwartz zwei Vorschläge. Zum einen solle man den Betrachtungsfokus auf das Ausland (und hier insbesondere die USA) und auf einen Systemvergleich (DDR) legen, zum anderen einen Vergleich organisatorischer Strukturen in kommerziellen Unternehmen und Bibliotheken ziehen, der klären solle, ob »Unternehmen - im Gegensatz zu Bibliotheken - aufgrund ihrer inneren Strukturen besser in der Lage sind, innovative Entwicklungen aufzugreifen und erfolgreich in den Routinebetrieb umzusetzen« (S.223). Die so indirekt getroffene Aussage zu Bibliotheken, über eine geringe Innovationsfähigkeit zu verfügen, ist für sich wohl wenig überraschend. Erstaunlich aber ist, dass diese Erkenntnis in der gesamten Arbeit nicht klar ausgesprochen wird - und da her auch in der Analyse der Projekte und der Förderanstrengungen der DFG keine Rolle spielt. Zwar wird an manchen Stellen auf Probleme bei der Nachnutzung von Projektergebnissen und auf Widerstände in Bibliotheken verwiesen (immer in Form von zeitgenössischen Zitaten); diese Äußerungen werden dann aber sofort wieder durch anders lautende Aussagen relativiert (s.a. die Zusammenfassung, S. 194). Hier aber liegen tatsächlich interessante Ansätze: Wie lässt sich die »Wirksamkeit« bestimmter Projekte untersuchen, was zur Wirkungsgeschichte bestimmter technischer Innovationen in Bibliotheken sagen? In diesem Zusammenhang müssten DFG-Positionspapiere und Stellungnahmen des Bibliotheksausschusses viel breiter berücksichtigt werden. Auch eine zahlenbasierte Analyse von 30 Jahren DFG-Förderung lässt möglicherweise interessante Schlüsse zu und spiegelt sich wandelnde Förderschwerpunkte. Wie ist das spezifische Gutachter-System der DFG im Kontext der Bibliotheksförderung zu sehen, inwieweit wirkten Gutachter aus Forschung und Wissenschaft erkennbar inhaltlich ein? Wie hat sich das Bild der Geschäftsstelle in dieser Zeit verändert und inwieweit existiert eine eigene Binnendynamik der Geschäftsstellenaktivitäten? Sind Begutachtungsmaßstäbe und Veränderungen in 30 Jahren erkennbar? Dies wäre schon deshalb interessant, weil die DFG-Projekteja nicht nur einfach Spiegelbild der Geschichte sind, sondern durchaus auch von speziellen Interessen gesteuert sind und eigenen Leitbildern folgen. Der Mut zu selbstverständlich begründeten Bewertungen einerseits und eine vertiefte Analyse einzelner ausgewählter Projekte und ihrer jeweiligen Wirkungsgeschichte andererseits hätten sicherlich einen größeren Erkenntnisgewinn gebracht. Wenn einmal in der Arbeit konkret ein Leitbild inhaltlich benannt wird, nämlich das traditionelle »Leitbild eines einheitlichen und gemeinschaftlichen Bibliothekswesens« (in der Zusammenfassung, S.195), wird erheblich klarer, was denn eigentlich gemeint ist."
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines

Years

Languages

  • d 648
  • e 20
  • f 3
  • a 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications