Search (593 results, page 1 of 30)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.44
    0.44131368 = product of:
      0.9708901 = sum of:
        0.09513839 = product of:
          0.28541517 = sum of:
            0.28541517 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.28541517 = score(doc=973,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.28541517 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28541517 = score(doc=973,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.019506188 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.019506188 = score(doc=973,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28541517 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28541517 = score(doc=973,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28541517 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28541517 = score(doc=973,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.45454547 = coord(5/11)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.24
    0.23845148 = product of:
      0.43716103 = sum of:
        0.039640997 = product of:
          0.118922986 = sum of:
            0.118922986 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.118922986 = score(doc=4388,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.118922986 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4388,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.014077379 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.014077379 = score(doc=4388,freq=6.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.118922986 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4388,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.118922986 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4388,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.02667372 = product of:
          0.05334744 = sum of:
            0.05334744 = weight(_text_:intelligenz in 4388) [ClassicSimilarity], result of:
              0.05334744 = score(doc=4388,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.31368437 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
      0.54545456 = coord(6/11)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.19
    0.18658516 = product of:
      0.41048732 = sum of:
        0.039640997 = product of:
          0.118922986 = sum of:
            0.118922986 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.118922986 = score(doc=1000,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.118922986 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.118922986 = score(doc=1000,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.014077379 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.014077379 = score(doc=1000,freq=6.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.118922986 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.118922986 = score(doc=1000,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.118922986 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.118922986 = score(doc=1000,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.45454547 = coord(5/11)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.16
    0.16010778 = product of:
      0.44029635 = sum of:
        0.14270759 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14270759 = score(doc=563,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14270759 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14270759 = score(doc=563,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14270759 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14270759 = score(doc=563,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.012173602 = product of:
          0.024347205 = sum of:
            0.024347205 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.024347205 = score(doc=563,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.36363637 = coord(4/11)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.16
    0.15830937 = product of:
      0.43535078 = sum of:
        0.031712797 = product of:
          0.095138386 = sum of:
            0.095138386 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.095138386 = score(doc=5820,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.134546 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.134546 = score(doc=5820,freq=4.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.36363637 = coord(4/11)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  6. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.14
    0.14414908 = product of:
      0.39640996 = sum of:
        0.039640997 = product of:
          0.118922986 = sum of:
            0.118922986 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.118922986 = score(doc=4997,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.118922986 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4997,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.118922986 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4997,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.118922986 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.118922986 = score(doc=4997,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.36363637 = coord(4/11)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.14
    0.14414908 = product of:
      0.39640996 = sum of:
        0.039640997 = product of:
          0.118922986 = sum of:
            0.118922986 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.118922986 = score(doc=855,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.118922986 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.118922986 = score(doc=855,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.118922986 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.118922986 = score(doc=855,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.118922986 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.118922986 = score(doc=855,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.36363637 = coord(4/11)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.12
    0.11531925 = product of:
      0.31712794 = sum of:
        0.031712797 = product of:
          0.095138386 = sum of:
            0.095138386 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.095138386 = score(doc=701,freq=2.0), product of:
                0.25391993 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.095138386 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.095138386 = score(doc=701,freq=2.0), product of:
            0.25391993 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029950412 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.36363637 = coord(4/11)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Mönnich, M.W.: Personalcomputer in Bibliotheken : Arbeitsplätze für Benutzer (1991) 0.03
    0.03347546 = product of:
      0.18411501 = sum of:
        0.15831074 = weight(_text_:allgemeines in 5389) [ClassicSimilarity], result of:
          0.15831074 = score(doc=5389,freq=12.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.9264452 = fieldWeight in 5389, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.046875 = fieldNorm(doc=5389)
        0.025804263 = weight(_text_:und in 5389) [ClassicSimilarity], result of:
          0.025804263 = score(doc=5389,freq=14.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.38872904 = fieldWeight in 5389, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5389)
      0.18181819 = coord(2/11)
    
    Classification
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    RVK
    AN 73600 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Einsatz in Benutzung und Ausleihe
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Series
    Kölner Arbeiten zum Bibliotheks- und Dokumentationswesen; H.15
  10. Schwarz, H.: ¬Das Deutsche Bibliotheksinstitut : im Spannungsfeld zwischen Auftrag und politischem Interesse (2017) 0.02
    0.023525715 = product of:
      0.12939143 = sum of:
        0.106634215 = weight(_text_:allgemeines in 3725) [ClassicSimilarity], result of:
          0.106634215 = score(doc=3725,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.62403065 = fieldWeight in 3725, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
        0.022757221 = weight(_text_:und in 3725) [ClassicSimilarity], result of:
          0.022757221 = score(doc=3725,freq=8.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.34282678 = fieldWeight in 3725, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3725)
      0.18181819 = coord(2/11)
    
    Abstract
    Das 1978 gegründete Deutsche Bibliotheksinstitut als zentrale Einrichtung des Deutschen Bibliothekswesens - sein Auf - und Abstieg.
    BK
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    06.04 Ausbildung, Beruf, Organisationen Information und Dokumentation
    Classification
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    06.04 Ausbildung, Beruf, Organisationen Information und Dokumentation
  11. Nimz, B.: ¬Die Erschließung im Archiv- und Bibliothekswesen unter besonderer Berücksichtigung elektronischer Informationsträger : ein Vergleich im Interesse der Professionalisierung und Harmonisierung (2001) 0.02
    0.0213375 = product of:
      0.11735625 = sum of:
        0.08617345 = weight(_text_:allgemeines in 2442) [ClassicSimilarity], result of:
          0.08617345 = score(doc=2442,freq=8.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.5042929 = fieldWeight in 2442, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
        0.031182798 = weight(_text_:und in 2442) [ClassicSimilarity], result of:
          0.031182798 = score(doc=2442,freq=46.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.46975413 = fieldWeight in 2442, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2442)
      0.18181819 = coord(2/11)
    
    Abstract
    Diese Arbeit dient der Professionalisierung und Harmonisierung der Erschließungsmethodik im Archiv- und Bibliothekswesen. Die Erschließung ist das Kernstück der archivarischen und bibliothekarischen Arbeit und Grundlage für die Benutzung durch die interessierte Öffentlichkeit. Hier wird, bildlich gesprochen, das gesät, was in der Benutzung geerntet wird und je gewissenhafter die Aussaat desto ertragreicher die Ernte. Der Bereich der Dokumentation wird, wo es für die Betrachtung der integrativen Momente in den Informationswissenschaften erforderlich erscheint, einbezogen. Das Hauptaugenmerk gilt jedoch der Archivwissenschaft und den Beziehungen zwischen der Archiv- und Bibliothekswissenschaft. Vornehmlich wird die Arbeit nationale Strukturen des Archivund Bibliothekswesens sowie ausgewählte Projekte und Tendenzen abhandeln. Auf eine erschöpfende Untersuchung aller Ausbildungsgänge auf dem Informationssektor wird verzichtet, da das Ziel dieser Arbeit nur die Betrachtung der integrativen Konzepte in der Ausbildung ist. Ziel der Publikation ist es, Angebote sowohl für die Grundlagenforschung als auch für die angewandte Forschung im Themenbereich Harmonisierung und Professionalisierung in der Erschließung der Informationswissenschaften zu machen. Sie kann als Diskussionsgrundlage für den interdisziplinären fachlichen Austausch dienen, der weitere Arbeiten folgen müssen. Es wird versucht, Wissen aus den Bereichen Archivwesen und Bibliothekswesen zu kumulieren und zu kommentieren. Vollständigkeit wird nicht beansprucht, sondern Wert auf Beispielhaftigkeit gelegt, zumal der rasante Technologiewandel zwangsläufig eine rasche Veralterung technischer Angaben zu den elektronischen Informationsträgern zur Folge hat. Bestand haben jedoch die theoretischen Überlegungen und abstrakten Betrachtungen sowie die getroffenen Aussagen zur Addition, Integration und Separation der Informationswissenschaften. In der Arbeit werden in dem Kapitel "Die Informationsgesellschaft" vorrangig die Auswirkungen der Informationsgesellschaft auf die Archive und Bibliotheken untersucht, wobei zunächst von der Klärung der Begriffe "Information" und "Informationsgesellschaft" und der Informationspolitik in der EU und in der Bundesrepublik ausgegangen wird.
    Classification
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Footnote
    Rez. in: Bibliothek: Forschung und Praxis 28(2004) H.1, S.132-135 (H. Flachmann)
    RVK
    AN 74000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Allgemeines
    Series
    Texte und Untersuchungen zur Archivpflege; Bd.14
  12. Zedelmaier, H.: Bibliotheca universalis und bibliotheca selecta : das Problem der Ordnung des gelehrten Wissens in der frühen Neuzeit (1992) 0.01
    0.014206668 = product of:
      0.078136675 = sum of:
        0.060933832 = weight(_text_:allgemeines in 3932) [ClassicSimilarity], result of:
          0.060933832 = score(doc=3932,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.35658893 = fieldWeight in 3932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=3932)
        0.017202841 = weight(_text_:und in 3932) [ClassicSimilarity], result of:
          0.017202841 = score(doc=3932,freq=14.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.25915268 = fieldWeight in 3932, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3932)
      0.18181819 = coord(2/11)
    
    Abstract
    Die beiden Leitbegriffe des Titels - Buchtitel zugleich einschlägiger Werke - bezeichnen eine Alternative in der frühneuzeitlichen Speicherung und Vermittlung von Wissen: die möglichst umfassende Thesaurierung überkommener Wissensbestände beziehungsweise ihre kritische Sichtung und Auswahl unter bestimmten Relevanzgesichtspunkten. Der eine Titel stammt von dem Zürcher Polyhistor Konrad Gessner, der andere von dem Jesuiten Antonio Possevino. Voraussetzung beider Unternehmen ist der Buchdruck, der etwa hundert Jahre nach seiner Erfindung in bis dahin unerhörtem Ausmaß Schrifttradition zugänglich gemacht hat, aber durch die schiere Quantität zunehmend Strategien zu ihrer Sicherung und Nutzbarmachung verlangt. Der Bibliotheca universalis wie der Bibliotheca selecta geht es um Orientierung in einem immer unübersichtlicheren Bestand schriftlich tradierten Wissens, der den Wissensfortschritt zu behindern droht. Beide haben also nicht wissenschaftliche Erkenntnis selbst, sondern ihre Vermittlung zum Ziel, und sie wollen kein System des Wißbaren entwerfen, sondern auf der Basis hergebrachter Ordnungen des Wissens den Leser dazu anleiten, sich in jenem Bestand zurechtzufinden. Es ist ein erster Vorzug dieser Münchner Dissertation, daß sie dieses Problem rekonstruiert, so daß das frühneuzeitliche Projekt der Bibliothek nicht mehr am falschen Maßstab der Enzyklopädie als Summe des Wißbaren gemessen wird.
    BK
    02.01 Geschichte der Wissenschaft und Kultur
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
    Classification
    02.01 Geschichte der Wissenschaft und Kultur
    06.30 Bibliothekswesen Dokumentationswesen: Allgemeines
  13. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.01397465 = product of:
      0.07686057 = sum of:
        0.060933832 = weight(_text_:allgemeines in 897) [ClassicSimilarity], result of:
          0.060933832 = score(doc=897,freq=4.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.35658893 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.015926737 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.015926737 = score(doc=897,freq=12.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.18181819 = coord(2/11)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  14. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.01
    0.012743968 = product of:
      0.07009182 = sum of:
        0.043086726 = weight(_text_:allgemeines in 1447) [ClassicSimilarity], result of:
          0.043086726 = score(doc=1447,freq=8.0), product of:
            0.17087977 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.029950412 = queryNorm
            0.25214645 = fieldWeight in 1447, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.027005095 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.027005095 = score(doc=1447,freq=138.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
      0.18181819 = coord(2/11)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    Methodisch gruppiert sich - das wurde schon deutlich - die Arbeit um Termini wie »Leitbilder«, »Modernisierung«, »Rationalisierung«, »Innovation« und will dies mit konkreten Projekten in einer »praxisbezogenen Sichtweise« (so der Klappentext) kontrastieren. Von diesem Zugang her stellt die Arbeit einen durchaus interessanten Ansatz zur historischen Würdigung der Datenverarbeitung und ihrer Rolle im Entwicklungsprozess der Bibliotheken dar. Schwartz will die »Projekte in ihrer Gesamtheit mit übergreifenden Beschreibungsmerkmalen und Entwicklungsphasen, insbesondere Ziele und Leitbilder der Bibliotheksprojekte« betrachten und herausarbeiten (S.4). Problematisch ist allerdings dabei, dass das methodische Vorgehen nicht ausreichend tief erfolgt oder auch nur einmal zusammenfassend reflektiert wird und mit der Auswahl und den ausgewählten »Quellen« selbst völlig unkritisch umgegangen wird. Weder wird klar definiert, was eigentlich unter einem »Leitbild« verstanden wird, noch, was diese Leitbilder eigentlich ausmacht oder was sie sind. Ähnliches gilt für das zugrunde gelegte Material: Werden die DFG-geförderten Projekte als Abbild der Gesamtentwicklung gesehen und wenn dies so gemeint ist, warum wird es nicht deutlich gesagt und entsprechend belegt? Eine nicht begründete affirmative Aussage zum Ende der Arbeit: »Die beschriebenen DFG-Projekte sind aufgrund ihrer thematischen Breite ein Spiegelbild der technischen Entwicklung zum Einsatz der Datenverarbeitung in Bibliotheken.« (S. 162) reicht dazu nicht aus. Wieso wird primär ein Förderprogramm (und das zeitlich teilweise parallele Förderprogramm »Informationsvermittlung in Bibliotheken«) untersucht? Wie betten sich die Aktivitäten in andere Förderaktivitäten der DFG ein und vor allem: Welchen Bezug hatte diese Förderlinie zu den Rahmenplanungen und Positionspapieren der DFG? Schlimmer noch: Einerseits wird ausdrücklich darauf verzichtet, eigene Bewertungen zu Projekten oder auch zu besprochenen Förderaktivitäten abzugeben (S.4 f), stattdessen werden »Kommentare und Bewertungen der Projekte aus vorhandenen Quellen herangezogen« (S.5). Andererseits werden diese (Selbst-)Statements aus dem DFGKontext selbst, in dünner Auswahl aber auch aus der zeitgenössischen Projektberichterstattung der Projektnehmer völlig unkritisch übernommen (S.111 f, 141 ff.). Zwar werden ausführlich Erfolgsparameter für Projekte diskutiert, andererseits aber verbiete sich jede Wertung bzw. Erfolgskontrolle (S.79 ff.). Gütekriterien werden benannt, aber extrem kurz abgehandelt: So ist etwa der Grad der Akzeptanz eines Projekts gerade einmal zwölf Zeilen wert (5.146) und wird auch später nicht weiter berücksichtigt.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    Insgesamt erhält man so mehr eine Materialansammlung zum Thema als eine Aufarbeitung-auch wenn die zum Teil fein gegliederte extreme Kapitelaufteilung etwas anderes suggeriert. Verbunden mit der starken Fußnotenlastigkeit (oft mehr als die Hälfte einer Seite einnehmend mit z.T. kuriosen Auswüchsen, wenn etwa von einer Textstelle auf zwei hintereinander stehende Fußnoten mit inhaltlich nahezu gleichen Aussagen verwiesen wird [S.72, 247/248]) ist die im Übrigen technisch sehr sauber erstellte Arbeit (ein Kolumnenfehler S.64, kaum Tippfehler) aus meiner Sicht keine Leseempfehlung. Wirksamkeit der Projekte? In doppeltem Sinne interessant ist der Hinweis auf weiteren Untersuchungsbedarf (S.222), hier macht Schwartz zwei Vorschläge. Zum einen solle man den Betrachtungsfokus auf das Ausland (und hier insbesondere die USA) und auf einen Systemvergleich (DDR) legen, zum anderen einen Vergleich organisatorischer Strukturen in kommerziellen Unternehmen und Bibliotheken ziehen, der klären solle, ob »Unternehmen - im Gegensatz zu Bibliotheken - aufgrund ihrer inneren Strukturen besser in der Lage sind, innovative Entwicklungen aufzugreifen und erfolgreich in den Routinebetrieb umzusetzen« (S.223). Die so indirekt getroffene Aussage zu Bibliotheken, über eine geringe Innovationsfähigkeit zu verfügen, ist für sich wohl wenig überraschend. Erstaunlich aber ist, dass diese Erkenntnis in der gesamten Arbeit nicht klar ausgesprochen wird - und da her auch in der Analyse der Projekte und der Förderanstrengungen der DFG keine Rolle spielt. Zwar wird an manchen Stellen auf Probleme bei der Nachnutzung von Projektergebnissen und auf Widerstände in Bibliotheken verwiesen (immer in Form von zeitgenössischen Zitaten); diese Äußerungen werden dann aber sofort wieder durch anders lautende Aussagen relativiert (s.a. die Zusammenfassung, S. 194). Hier aber liegen tatsächlich interessante Ansätze: Wie lässt sich die »Wirksamkeit« bestimmter Projekte untersuchen, was zur Wirkungsgeschichte bestimmter technischer Innovationen in Bibliotheken sagen? In diesem Zusammenhang müssten DFG-Positionspapiere und Stellungnahmen des Bibliotheksausschusses viel breiter berücksichtigt werden. Auch eine zahlenbasierte Analyse von 30 Jahren DFG-Förderung lässt möglicherweise interessante Schlüsse zu und spiegelt sich wandelnde Förderschwerpunkte. Wie ist das spezifische Gutachter-System der DFG im Kontext der Bibliotheksförderung zu sehen, inwieweit wirkten Gutachter aus Forschung und Wissenschaft erkennbar inhaltlich ein? Wie hat sich das Bild der Geschäftsstelle in dieser Zeit verändert und inwieweit existiert eine eigene Binnendynamik der Geschäftsstellenaktivitäten? Sind Begutachtungsmaßstäbe und Veränderungen in 30 Jahren erkennbar? Dies wäre schon deshalb interessant, weil die DFG-Projekteja nicht nur einfach Spiegelbild der Geschichte sind, sondern durchaus auch von speziellen Interessen gesteuert sind und eigenen Leitbildern folgen. Der Mut zu selbstverständlich begründeten Bewertungen einerseits und eine vertiefte Analyse einzelner ausgewählter Projekte und ihrer jeweiligen Wirkungsgeschichte andererseits hätten sicherlich einen größeren Erkenntnisgewinn gebracht. Wenn einmal in der Arbeit konkret ein Leitbild inhaltlich benannt wird, nämlich das traditionelle »Leitbild eines einheitlichen und gemeinschaftlichen Bibliothekswesens« (in der Zusammenfassung, S.195), wird erheblich klarer, was denn eigentlich gemeint ist."
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
  15. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.01
    0.011103376 = product of:
      0.061068565 = sum of:
        0.01839061 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
          0.01839061 = score(doc=4499,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.27704588 = fieldWeight in 4499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
        0.042677954 = product of:
          0.08535591 = sum of:
            0.08535591 = weight(_text_:intelligenz in 4499) [ClassicSimilarity], result of:
              0.08535591 = score(doc=4499,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.501895 = fieldWeight in 4499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4499)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Mit dieser Diplomarbeit soll vor allem ein Überblick über den derzeitigen Stand der Technik der Methoden der Semantischen Netze, der Fuzzy-Logik sowie der regelbasierten Wissensrepräsentation und -verarbeitung gegeben werden. Anhand praktischer Anwendungen wird dargestellt, in welchen Bereichen diese Techniken eingesetzt werden und welcher Nutzen sich hieraus ergibt.
  16. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.01
    0.011016117 = product of:
      0.060588643 = sum of:
        0.03218357 = weight(_text_:und in 5309) [ClassicSimilarity], result of:
          0.03218357 = score(doc=5309,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.4848303 = fieldWeight in 5309, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=5309)
        0.028405072 = product of:
          0.056810144 = sum of:
            0.056810144 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.056810144 = score(doc=5309,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Date
    5. 8.2006 13:07:22
  17. Boltzendahl, S.: Ontologien in digitalen Bibliotheken unter dem Schwerpunkt Inhaltserschliessung und Recherche (2004) 0.01
    0.010502507 = product of:
      0.05776379 = sum of:
        0.027585918 = weight(_text_:und in 1414) [ClassicSimilarity], result of:
          0.027585918 = score(doc=1414,freq=36.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 1414, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1414)
        0.03017787 = product of:
          0.06035574 = sum of:
            0.06035574 = weight(_text_:intelligenz in 1414) [ClassicSimilarity], result of:
              0.06035574 = score(doc=1414,freq=4.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.3548934 = fieldWeight in 1414, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1414)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Das Thema dieser Arbeit sind formale Ontologien in digltalen Bibliotheken. DIese Entwicklung der Künstlichen Intelligenz repräsentiert die Begrifflichkeit eInes Fachgebietes oder thematischen Bereiches sowohl auf konzeptueller wie auf terminologischer Ebene, die durch vielfältige Beziehungen zwischen den Termen und integrierten Schlussregeln "intelligentes" Suchen in Textdokumenten ermöglichen sollen. Ein Einsatz in digitalen Bibliotheken zur Bewältigung von Anforderungen des Information Retrieval und der Interoperabilität ist daher nahe liegend. Die vorliegende Arbeit betrachtet die Nutzung von Ontologien für Recherche und Inhaltserschließung in digitalen Bibliotheken und setzt sie in Beziehung zu den herkömmlichen dokumentarischen Hilfsmitteln Klassifikation und Thesaurus. Es zeigt sich, dass die Zielsetzungen bei der Entwicklung von formalen Ontologien nicht weit von den Anforderungen an moderne elektronische Thesauri entfernt sind.
    Die vorliegende Arbeit befasst sich mit Anwendungsmöglichkeiten von "formalen Ontologien" in digitalen Bibliotheken. Der Schwerpunkt liegt dabei auf der Inhaltserschließung und der Recherche, also dem Information Retrieval. Ontologien sind neuere Entwicklungen der künstlichen Intelligenz, die es sich zur Aufgabe gemacht haben, die Semantik elektronisch gespeicherter Daten zu beschreiben. Sie versprechen, damit angesichts einer steigenden Informationsflut" weltweiter Vemetzung und einem auch wirtschaftlich immer wichtiger werdenden Zugang zu und Austausch von Information und Wissen intelligente Lösungen zu liefern. Durch die Darstellung von gegenstandsbezogenem Wissen sollen mit Hilfe von Ontologien semantische Heterogenität behandelt und Integriert, intelligente Recherchemöglichkeiten auch für große Datenmengen eröffnet und damit Lösungen v.a. für das Wissensmanagement geboten werden. In dieser Arbeit soll der Frage nachgegangen werden, was unter Ontologien in diesem Sinne zu verstehen ist, wie sie in digitalen BIbliotheken als neuen Informationssystemen eingesetzt werden können und was sie im Verhältnis zu herkömmlichen Hilfsmitteln im Information Retrieval leisten. Dafür soll zunächst erläutert werden, was formale Ontologien sind und wo und zu welchen Zwecken sie eingesetzt werden können (Kapitel 2). Im darauf folgenden Kapitel sollen zunächst Anforderungen an das Information Retrieval in digitalen Bibliotheken skizziert werden und mögliche Einsatzbereiche von Ontologien aufgezeigt werden (Kapitel 3). Dieses Kapitel wird durch Beispiele von konkreten Projekten, die Ontologien in digitalen Bibliotheken einsetzen, ergänzt. Schließlich sollen in Kapitel 4 Ontologien in Beziehung gesetzt werden zu herkömmlichen dokumentarischen Hilfsmitteln der Inhaltserschließung und Recherche, v.a. dem Thesaurus. Bei dieser Darstellung kann es sich nur um einen allgemeinen Überblick über den Themenbereich handeln, eine genauere Darstellung würde den Rahmen dieser Arbeit sprengen. Auf einige Probleme und mögliche Untersuchungsbereiche" die sich für den Einsatz von Ontologien in digitalen Bibliotheken stellen, soll jedoch noch am Schluss dieser Arbeit (Kapitel 5) hingewiesen werden. Auf besondere Ansätze z.B. in der Thesaurusforschung (wie z.B. einem "semiotischen Thesaurus" (vgl. Schwarz/Umstätter) kann in diesem Rahmen nicht eingegangen werden.
  18. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.009750882 = product of:
      0.05362985 = sum of:
        0.02695613 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02695613 = score(doc=4283,freq=22.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.40608138 = fieldWeight in 4283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
        0.02667372 = product of:
          0.05334744 = sum of:
            0.05334744 = weight(_text_:intelligenz in 4283) [ClassicSimilarity], result of:
              0.05334744 = score(doc=4283,freq=2.0), product of:
                0.17006725 = queryWeight, product of:
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.029950412 = queryNorm
                0.31368437 = fieldWeight in 4283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.678294 = idf(docFreq=410, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4283)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  19. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.009442386 = product of:
      0.051933125 = sum of:
        0.027585918 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.027585918 = score(doc=9,freq=4.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.024347205 = product of:
          0.04869441 = sum of:
            0.04869441 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.04869441 = score(doc=9,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Date
    22. 2.1997 19:50:29
    Imprint
    Wien : Universität / Grund- und Integrativwissenschaftliche Fakultät
  20. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.01
    0.009302236 = product of:
      0.051162295 = sum of:
        0.022757221 = weight(_text_:und in 1496) [ClassicSimilarity], result of:
          0.022757221 = score(doc=1496,freq=2.0), product of:
            0.066381104 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.029950412 = queryNorm
            0.34282678 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.028405072 = product of:
          0.056810144 = sum of:
            0.056810144 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.056810144 = score(doc=1496,freq=2.0), product of:
                0.10488124 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029950412 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.18181819 = coord(2/11)
    
    Date
    22. 7.1998 18:23:25

Languages

  • d 569
  • e 18
  • a 1
  • f 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications