Search (581 results, page 1 of 30)

  • × language_ss:"d"
  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.23
    0.23272519 = product of:
      0.88435566 = sum of:
        0.052577253 = product of:
          0.15773176 = sum of:
            0.15773176 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.15773176 = score(doc=973,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.2631579 = coord(10/38)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.06572157 = score(doc=4388,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.2631579 = coord(10/38)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.06572157 = score(doc=1000,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.2631579 = coord(10/38)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Capelle, I.: Vergleich zwischen Wissenschaftsklassifikationen einzelner Philosophen (Bacon, d'Alembert, Hegel, Rickert und Wundt) und der Allgemeinen Systematik für Büchereien (ASB) (1961) 0.02
    0.024637239 = product of:
      0.18724301 = sum of:
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.116099335 = weight(_text_:einzelner in 1293) [ClassicSimilarity], result of:
          0.116099335 = score(doc=1293,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            1.0416191 = fieldWeight in 1293, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
      0.13157895 = coord(5/38)
    
  5. Fröhlich, T.: Vorüberlegungen zu einem Gesamtkatalog der Bibliotheken des Deutschen Archäologischen Instituts (DAI) (2001) 0.02
    0.019103566 = product of:
      0.120989256 = sum of:
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.035341542 = product of:
          0.070683084 = sum of:
            0.070683084 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.070683084 = score(doc=4980,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.035341542 = product of:
          0.070683084 = sum of:
            0.070683084 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.070683084 = score(doc=4980,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
      0.15789473 = coord(6/38)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
    Theme
    Katalogfragen allgemein
  6. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.02
    0.018752353 = product of:
      0.11876491 = sum of:
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.035341542 = score(doc=3704,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.035341542 = score(doc=3704,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
      0.15789473 = coord(6/38)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  7. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.018104043 = product of:
      0.13759072 = sum of:
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.058049668 = weight(_text_:einzelner in 782) [ClassicSimilarity], result of:
          0.058049668 = score(doc=782,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.52080953 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.13157895 = coord(5/38)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  8. Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014) 0.02
    0.017894212 = product of:
      0.13599601 = sum of:
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.04975686 = weight(_text_:einzelner in 1651) [ClassicSimilarity], result of:
          0.04975686 = score(doc=1651,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 1651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
      0.13157895 = coord(5/38)
    
    Abstract
    Der neue Erschliessungsstandard RDA beschäftigt aktuell unzählige Arbeitsgruppen und Einzelpersonen aus verschiedenen Ländern. Dabei geht es vor allem um die Anpassung einzelner Regeln und Konzepte an lokale Gegebenheiten und spezifische Medientypen. Das erklärte Ziel, den Standard auch für nicht-bibliothekarische Communities attraktiv zu machen, stand jedoch bislang im Hintergrund. Es ist unklar, ob und wie sich RDA beispielsweise in Archiven und Sondersammlungen anwenden lässt. Diese Bachelorarbeit widmet sich dieser Unsicherheit und untersucht die Möglichkeiten der Katalogisierung von ausgewählten archivalischen Ressourcen. Mittels einer Literaturanalyse werden die von Nutzern und Erschliessenden als essenziell erachteten Merkmale von Briefen und Fotografien erhoben und auf die Beschreibungsmöglichkeiten mit RDA hin untersucht. Dabei zeigt sich, dass der Standard grundsätzlich aufgeschlossen gegenüber archivalischen und historischen Ressourcen ist und sich lediglich vereinzelte Anpassungen von Begriffslisten und An- wendungsregeln empfehlen. Entscheidende Fragestellungen, wie die Abbildung von Kontextualität und Hierarchien, müssen jedoch noch geklärt werden, um die Attraktivität des Standards für nicht-bibliothekarische Communities weiter zu verbessern.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  9. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.01782473 = product of:
      0.09676282 = sum of:
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 897) [ClassicSimilarity], result of:
              0.005386828 = score(doc=897,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.18421052 = coord(7/38)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Date
    4. 6.2013 14:03:39
    Field
    Medizin
  10. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.02
    0.017722316 = product of:
      0.09620686 = sum of:
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.01658562 = weight(_text_:einzelner in 1447) [ClassicSimilarity], result of:
          0.01658562 = score(doc=1447,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.14880273 = fieldWeight in 1447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.0023325651 = product of:
          0.0046651303 = sum of:
            0.0046651303 = weight(_text_:4 in 1447) [ClassicSimilarity], result of:
              0.0046651303 = score(doc=1447,freq=6.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.10386214 = fieldWeight in 1447, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.5 = coord(1/2)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.017592315 = product of:
          0.052776944 = sum of:
            0.052776944 = weight(_text_:datenverarbeitung in 1447) [ClassicSimilarity], result of:
              0.052776944 = score(doc=1447,freq=26.0), product of:
                0.10471074 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.016551789 = queryNorm
                0.50402606 = fieldWeight in 1447, product of:
                  5.0990195 = tf(freq=26.0), with freq of:
                    26.0 = termFreq=26.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    Methodisch gruppiert sich - das wurde schon deutlich - die Arbeit um Termini wie »Leitbilder«, »Modernisierung«, »Rationalisierung«, »Innovation« und will dies mit konkreten Projekten in einer »praxisbezogenen Sichtweise« (so der Klappentext) kontrastieren. Von diesem Zugang her stellt die Arbeit einen durchaus interessanten Ansatz zur historischen Würdigung der Datenverarbeitung und ihrer Rolle im Entwicklungsprozess der Bibliotheken dar. Schwartz will die »Projekte in ihrer Gesamtheit mit übergreifenden Beschreibungsmerkmalen und Entwicklungsphasen, insbesondere Ziele und Leitbilder der Bibliotheksprojekte« betrachten und herausarbeiten (S.4). Problematisch ist allerdings dabei, dass das methodische Vorgehen nicht ausreichend tief erfolgt oder auch nur einmal zusammenfassend reflektiert wird und mit der Auswahl und den ausgewählten »Quellen« selbst völlig unkritisch umgegangen wird. Weder wird klar definiert, was eigentlich unter einem »Leitbild« verstanden wird, noch, was diese Leitbilder eigentlich ausmacht oder was sie sind. Ähnliches gilt für das zugrunde gelegte Material: Werden die DFG-geförderten Projekte als Abbild der Gesamtentwicklung gesehen und wenn dies so gemeint ist, warum wird es nicht deutlich gesagt und entsprechend belegt? Eine nicht begründete affirmative Aussage zum Ende der Arbeit: »Die beschriebenen DFG-Projekte sind aufgrund ihrer thematischen Breite ein Spiegelbild der technischen Entwicklung zum Einsatz der Datenverarbeitung in Bibliotheken.« (S. 162) reicht dazu nicht aus. Wieso wird primär ein Förderprogramm (und das zeitlich teilweise parallele Förderprogramm »Informationsvermittlung in Bibliotheken«) untersucht? Wie betten sich die Aktivitäten in andere Förderaktivitäten der DFG ein und vor allem: Welchen Bezug hatte diese Förderlinie zu den Rahmenplanungen und Positionspapieren der DFG? Schlimmer noch: Einerseits wird ausdrücklich darauf verzichtet, eigene Bewertungen zu Projekten oder auch zu besprochenen Förderaktivitäten abzugeben (S.4 f), stattdessen werden »Kommentare und Bewertungen der Projekte aus vorhandenen Quellen herangezogen« (S.5). Andererseits werden diese (Selbst-)Statements aus dem DFGKontext selbst, in dünner Auswahl aber auch aus der zeitgenössischen Projektberichterstattung der Projektnehmer völlig unkritisch übernommen (S.111 f, 141 ff.). Zwar werden ausführlich Erfolgsparameter für Projekte diskutiert, andererseits aber verbiete sich jede Wertung bzw. Erfolgskontrolle (S.79 ff.). Gütekriterien werden benannt, aber extrem kurz abgehandelt: So ist etwa der Grad der Akzeptanz eines Projekts gerade einmal zwölf Zeilen wert (5.146) und wird auch später nicht weiter berücksichtigt.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    Insgesamt erhält man so mehr eine Materialansammlung zum Thema als eine Aufarbeitung-auch wenn die zum Teil fein gegliederte extreme Kapitelaufteilung etwas anderes suggeriert. Verbunden mit der starken Fußnotenlastigkeit (oft mehr als die Hälfte einer Seite einnehmend mit z.T. kuriosen Auswüchsen, wenn etwa von einer Textstelle auf zwei hintereinander stehende Fußnoten mit inhaltlich nahezu gleichen Aussagen verwiesen wird [S.72, 247/248]) ist die im Übrigen technisch sehr sauber erstellte Arbeit (ein Kolumnenfehler S.64, kaum Tippfehler) aus meiner Sicht keine Leseempfehlung. Wirksamkeit der Projekte? In doppeltem Sinne interessant ist der Hinweis auf weiteren Untersuchungsbedarf (S.222), hier macht Schwartz zwei Vorschläge. Zum einen solle man den Betrachtungsfokus auf das Ausland (und hier insbesondere die USA) und auf einen Systemvergleich (DDR) legen, zum anderen einen Vergleich organisatorischer Strukturen in kommerziellen Unternehmen und Bibliotheken ziehen, der klären solle, ob »Unternehmen - im Gegensatz zu Bibliotheken - aufgrund ihrer inneren Strukturen besser in der Lage sind, innovative Entwicklungen aufzugreifen und erfolgreich in den Routinebetrieb umzusetzen« (S.223). Die so indirekt getroffene Aussage zu Bibliotheken, über eine geringe Innovationsfähigkeit zu verfügen, ist für sich wohl wenig überraschend. Erstaunlich aber ist, dass diese Erkenntnis in der gesamten Arbeit nicht klar ausgesprochen wird - und da her auch in der Analyse der Projekte und der Förderanstrengungen der DFG keine Rolle spielt. Zwar wird an manchen Stellen auf Probleme bei der Nachnutzung von Projektergebnissen und auf Widerstände in Bibliotheken verwiesen (immer in Form von zeitgenössischen Zitaten); diese Äußerungen werden dann aber sofort wieder durch anders lautende Aussagen relativiert (s.a. die Zusammenfassung, S. 194). Hier aber liegen tatsächlich interessante Ansätze: Wie lässt sich die »Wirksamkeit« bestimmter Projekte untersuchen, was zur Wirkungsgeschichte bestimmter technischer Innovationen in Bibliotheken sagen? In diesem Zusammenhang müssten DFG-Positionspapiere und Stellungnahmen des Bibliotheksausschusses viel breiter berücksichtigt werden. Auch eine zahlenbasierte Analyse von 30 Jahren DFG-Förderung lässt möglicherweise interessante Schlüsse zu und spiegelt sich wandelnde Förderschwerpunkte. Wie ist das spezifische Gutachter-System der DFG im Kontext der Bibliotheksförderung zu sehen, inwieweit wirkten Gutachter aus Forschung und Wissenschaft erkennbar inhaltlich ein? Wie hat sich das Bild der Geschäftsstelle in dieser Zeit verändert und inwieweit existiert eine eigene Binnendynamik der Geschäftsstellenaktivitäten? Sind Begutachtungsmaßstäbe und Veränderungen in 30 Jahren erkennbar? Dies wäre schon deshalb interessant, weil die DFG-Projekteja nicht nur einfach Spiegelbild der Geschichte sind, sondern durchaus auch von speziellen Interessen gesteuert sind und eigenen Leitbildern folgen. Der Mut zu selbstverständlich begründeten Bewertungen einerseits und eine vertiefte Analyse einzelner ausgewählter Projekte und ihrer jeweiligen Wirkungsgeschichte andererseits hätten sicherlich einen größeren Erkenntnisgewinn gebracht. Wenn einmal in der Arbeit konkret ein Leitbild inhaltlich benannt wird, nämlich das traditionelle »Leitbild eines einheitlichen und gemeinschaftlichen Bibliothekswesens« (in der Zusammenfassung, S.195), wird erheblich klarer, was denn eigentlich gemeint ist."
    RSWK
    Wissenschaftliche Bibliothek / Datenverarbeitung / Innovationsmanagement / Projekt / Deutsche Forschungsgemeinschaft / Geschichte 1965-1995
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Subject
    Wissenschaftliche Bibliothek / Datenverarbeitung / Innovationsmanagement / Projekt / Deutsche Forschungsgemeinschaft / Geschichte 1965-1995
  11. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.02
    0.017709764 = product of:
      0.096138716 = sum of:
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 4302) [ClassicSimilarity], result of:
              0.005386828 = score(doc=4302,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.18421052 = coord(7/38)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Date
    4. 4.2009 9:17:47
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  12. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.02
    0.017463338 = product of:
      0.11060114 = sum of:
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.013577371 = product of:
          0.027154742 = sum of:
            0.027154742 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.027154742 = score(doc=9,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.036043473 = product of:
          0.05406521 = sum of:
            0.027154742 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.027154742 = score(doc=9,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.026910467 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.026910467 = score(doc=9,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.15789473 = coord(6/38)
    
    Date
    22. 2.1997 19:50:29
    Imprint
    Wien : Universität / Grund- und Integrativwissenschaftliche Fakultät
  13. Wunderlich, B.: ¬Die wissenschaftliche Erschließung von Bekleidung mit systematischen Ordnungssystemen im musealen Kontext : Wie bekommt man Hemd und Hose in die Datenbank? (2005) 0.02
    0.01684539 = product of:
      0.10668747 = sum of:
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.019201303 = product of:
          0.038402606 = sum of:
            0.038402606 = weight(_text_:29 in 4173) [ClassicSimilarity], result of:
              0.038402606 = score(doc=4173,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.6595664 = fieldWeight in 4173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4173)
          0.5 = coord(1/2)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.012800869 = product of:
          0.038402606 = sum of:
            0.038402606 = weight(_text_:29 in 4173) [ClassicSimilarity], result of:
              0.038402606 = score(doc=4173,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.6595664 = fieldWeight in 4173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4173)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:29:52
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Institut für Information und Dokumentation
  14. Treue, L.: ¬Das Konzept Informationskompetenz : ein Beitrag zur theoretischen und praxisbezogenen Begriffsklärung (2011) 0.02
    0.016735246 = product of:
      0.09084848 = sum of:
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.0033667674 = product of:
          0.006733535 = sum of:
            0.006733535 = weight(_text_:4 in 214) [ClassicSimilarity], result of:
              0.006733535 = score(doc=214,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14991207 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
      0.18421052 = coord(7/38)
    
    Abstract
    Das Konzept Informationskompetenz entwickelt sich im deutschsprachigen Raum seit den 1990er-Jahren zu einem Schlüsselbegriff des Bildungs- und Bibliothekswesens. Es handelt sich um einen Transfer des Konzepts "information literacy", welches im angloamerikanischen Raum bereits seit den 1980er-Jahren etabliert ist und allgemein für eine Fähigkeit im Umgang mit Information benutzt wird. Der Informationsbegriff als Bezugspunkt der Fähigkeit im Umgang mit Information wird in dieser Arbeit etymologisch, nachrichtentechnisch, zeichentheoretisch und als Grundbegriff der Informationswissenschaft betrachtet. Der medienhistorische Zusammenhang wird in einer Untersuchung zum Begriffsaufkommen nachgewiesen und analysiert. Die Entwicklung des Konzepts wird von seinem ersten Aufkommen bis zu neueren zielgruppenfokussierten Anwendungen wie der Informationskompetenz in Unternehmen (IKU) nachgezeichnet. Als Beispiel aus der Praxis wird das Berliner Projekt "Informationskompetenz als Schlüsselqualifikation für lebenslanges Lernen von Hochschulabsolventen in kleinen und mittleren Unternehmen" (2005-2008) betrachtet. Die Untersuchung der Verwendung des Begriffes sowie seiner praktischen Wirkungen sollen im Sinne der Pragmatischen Maxime einen Beitrag zur Begriffsklärung leisten. Trotz der starken Verbreitung dieses Konzepts zeichnet es sich durch terminologische Unklarheit und einen permanenten Diskurs zu dessen Inhalten und Bedeutungen dieses Begriffs aus. Die Arbeit dokumentiert die Lücke zwischen der theoretischen informationswissenschaftlichen Konzeption und der Anwendung im Bildungs- und Bibliotheksbereich und formuliert in diesem Kontext Desiderate für die Informationswissenschaft.
    Date
    4. 6.2012 17:39:26
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  15. Mundt, M.: Vergleichende Untersuchung der Abfrageoberflächen bibliographischr Datenbanken und eines Metainformationssystems, dargestellt am Beispiel von Datenbanksystemen des Umweltbundesamtes (1999) 0.02
    0.016630292 = product of:
      0.10532519 = sum of:
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.028876819 = sum of:
          0.010773656 = weight(_text_:4 in 7552) [ClassicSimilarity], result of:
            0.010773656 = score(doc=7552,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.23985931 = fieldWeight in 7552, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=7552)
          0.018103162 = weight(_text_:29 in 7552) [ClassicSimilarity], result of:
            0.018103162 = score(doc=7552,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.31092256 = fieldWeight in 7552, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 7552) [ClassicSimilarity], result of:
              0.018103162 = score(doc=7552,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 7552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7552)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In der vorliegenden Arbeit werden 4 Abfrageoberflächen unterschiedlicher Retrievalsysteme, die für die Mitarbeiter des Umweltbundesamtes Berlin zugänglich sind, im Hinblick auf Nutzerfreundlichkeit und intuitiver Bedienbarkeit vergleichend untersucht. Der 'Einfachdialog' und die Oberfläche der 'Umwelt-CD' greifen auf die Datenbestände der Umweltdatenbanken zu. Berücksichtigt werden hierbei die Oberflächen zur Recherche in ULIDAT und UFORDAT. Das Metadatensystem UDK (Umweltdatenkatalog) wird in der PC-Version, dem 'UDK-UBA', und in der WWW-Variante in die Untersuchung einbezogen
    Date
    28.11.1999 13:32:29
    Imprint
    Potsdam : Institut für Information und Dokumentation
  16. Werther, S.: Bei Anruf Film : Strukturen, Methoden und Chancen produktionsintegrierter Filmrecherche im internationalen Vergleich (1997) 0.02
    0.015822278 = product of:
      0.10020776 = sum of:
        0.022223322 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.022223322 = score(doc=1498,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.022223322 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.022223322 = score(doc=1498,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.0067886855 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 1498) [ClassicSimilarity], result of:
              0.013577371 = score(doc=1498,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 1498, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1498)
          0.5 = coord(1/2)
        0.022223322 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.022223322 = score(doc=1498,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.022223322 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.022223322 = score(doc=1498,freq=34.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.6057904 = fieldWeight in 1498, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1498)
        0.0045257905 = product of:
          0.013577371 = sum of:
            0.013577371 = weight(_text_:29 in 1498) [ClassicSimilarity], result of:
              0.013577371 = score(doc=1498,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23319192 = fieldWeight in 1498, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1498)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In einer explorartiven Studie werden Arbeitsbedingungen, -strukturen und -methoden englischer und U.S.-amerikanischer Free lance film researcher beschrieben und vor diesem Hintergrund die Möglichkeiten des Einsatzes freiberuflicher Filmrechercheure auch im Rahmen bundesdeutscher Film- und Fernsehproduktion beurteilt. Der erste Teil der Untersuchung befaßt sich mit der Notwendigkeit produktionsintegrierter Film- und Fernsehrecherche und stellt typische Aufgaben- und Verantwortungsbereiche von Filmresearchern vor. Auf der Grundlage einer leitfadengestützten, standardisierten Tiefenbefragung von 8 englischen und 8 amerikanischen Filmrechercheuren sowie von Recherchemitarbeitern in 3 deutschen Fernsehredaktionen werden zunächst die politisch-rechtlichen, medienwirtschaftlichen und quellenbezogenen Rahmenbedingungen geschildert, unter denen die anglo-amerikanischen Filmrechercheure arbeiten. Vergleichend werden deren Qulifikationen und Voraussetzungen charakterisiert, Aufgaben und Arbeitsfelder erläutert, es werden arbeitsrechtliche Grundlagen verdeutlicht sowie die besonderen Arbeitsmethoden und Hilfsmittel von Filmrechercheuren vorgestellt. Ähnlichkeiten und Unterschiede zwischen der produktionsintegrierten Filmrecherche in den USA und in Großbritannien werden der Situation von recherchierenden Mitarbeitern in deutschen Redaktionen gegenübergestellt. Zuletzt weist die Studie die ablauforganisatorischen, produktionsinhaltlichen und ökonomischen Vorteile nach, die sich durch den Einsatz von freiberuflichen Filmrechercheuren in bundesrepublikanischen Sendeanstalten und Fernsehproduktionsfirmen erzielen lassen
    Date
    2. 1.1999 13:07:29
  17. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.02
    0.015811363 = product of:
      0.08583312 = sum of:
        0.018209629 = weight(_text_:medizin in 684) [ClassicSimilarity], result of:
          0.018209629 = score(doc=684,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.2062598 = fieldWeight in 684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.018209629 = weight(_text_:medizin in 684) [ClassicSimilarity], result of:
          0.018209629 = score(doc=684,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.2062598 = fieldWeight in 684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.0117642805 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.0117642805 = score(doc=684,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.0117642805 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.0117642805 = score(doc=684,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.0023567372 = product of:
          0.0047134743 = sum of:
            0.0047134743 = weight(_text_:4 in 684) [ClassicSimilarity], result of:
              0.0047134743 = score(doc=684,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.10493845 = fieldWeight in 684, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=684)
          0.5 = coord(1/2)
        0.0117642805 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.0117642805 = score(doc=684,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
        0.0117642805 = weight(_text_:und in 684) [ClassicSimilarity], result of:
          0.0117642805 = score(doc=684,freq=28.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3206851 = fieldWeight in 684, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
      0.18421052 = coord(7/38)
    
    Abstract
    In dem Maße, in dem sich die Wissenschaften partikularisieren und atomisieren, wird es immer schwieriger, Überblick zu gewinnen auch schon über nah verwandte Wissenschaften. Daher wächst die Bedeutung der Klassifizierung hinsichtlich ihrer pragmatischen Funktionen stark an. Zudem sind es heute besonders die Querschnittswissenschaften, die im Zentrum des Forschungsinteresses stehen. Dort werden derzeit die größten Fortschritte gemacht. Man denke dabei nur an die Krebsforschung, die sich im molekularen Bereich in einen Forschungsraum zwischen Chemie und Biologie bewegt. Gerade die Medizin bietet viele Beispiele dieser die Wissenschaftsgrenzen überschreitenden Forschungen: der ganze Bereich der Gentechnik, die Nanotechnik, aber auch die medizinische Informatik und Robotik. Aus diesem Grund sind es nicht nur pragmatische Funktionen, die von einer heutigen Wissenschaftsklassifikation bedient werden müssen, sondern auch epistemologische. Wissenschaftsklassifikationen bieten die Möglichkeit, Zusammenhänge zwischen den Wissenschaften erkennbar machen und eröffnen damit unter Umständen neue Wege der Forschung. Dennoch geriet die Wissenschaftsklassifikation gerade in den letzten Jahren in eine Krise. Die Absage an die Systemhaftigkeit des Ganzen der Wissenschaft, die sich im Zuge der postmodernen Theorie durchgesetzt hat, stellte die Wissenschaftsklassifikation vor Probleme, die sie mit den üblichen Ansätzen nicht lösen konnte. Neue Wege der Klassifikation vor dem Hintergrund der Erkenntnisse dieser neuen Theorieansätze galt es nun zu finden. Jede Zeit findet sich ihre Problemlösungswege, und so hat sich auch für die Wissenschaftsklassifikation der Gegenwart neue Möglichkeiten eröffnet, die sich mit Hilfe der neuen Medien verwirklichen lassen.
    Durch die rasche Vermehrung und erhöhte Verschränkung der Wissenschaften stoßen die klassischen zweidimensionalen und hierarchischen Klassifikationen heute an eine Grenze. Die eindeutige Hierarchisierung kann hier nur auf Kosten der potentiell auszubildenden Beziehungen zwischen den zu klassifizierenden Wissenschaften gehen, denn, um die Logik der Hierarchie zu bewahren, muss häufig auf die Logik der inhaltlichen Zusammenhänge verzichten werden. Eine Lösung in Form von mehrdimensionalen Verbindungen und In-Bezug-Setzungen bieten die Darstellungsmöglichkeiten der neuen Medien. Einen Schritt in diese Richtung unternahm ARTUR P. SCHMIDT mit seinem 1999 auch als CD-Rom erschienen 'Wissensnavigator'. Unter Bezugnahme auf Deleuzes und Guattaris 'Rhizom' fordert er eine ungehinderte Vernetzung des Wissens in alle Richtungen. Er sieht sich damit im Einklang mit den Entwicklungen seiner Zeit. Interaktive Benutzung soll diese totale Vernetzung des Wissens generieren, indem der Benutzer der Enzyklopädie durch seine Anfragen bei ihrer Evolution mitwirkt. Die Darstellbarkeit dieser Vernetzung soll mit Hilfe eines sich in einem 4-dimensionalen Raum befindlichen "Hyperkubus" ermöglicht werden, der "in einer Matrix ein neuronales Netzwerk" enthalten soll. Neben diesem wohl noch als utopisch zu bezeichnenden Projekt gibt es derzeit eine Anzahl konservativerer Ansätze der Klassifizierung im Internet, die größte Differenzierungen erlauben, aber auf ungeregelte 'Hyperverlinkung' verzichten. Sollten jedoch Projekte wie die ARTUR P. SCHMIDTS realisiert werden können, so ist damit vielleicht auch Nietzsches Forderung zu erfüllen, die er noch in weiter Ferne vermutete.
    Mit Hilfe mehrdimensionaler In-Bezug-Setzungen könnte auch einem wechselseitigen Prozess entgegnet werden, der sich seit gut einem Jahrhundert mehr und mehr dynamisierte: Gleichzeitig mit dem Differenzierungsprozess der Wissenschaften, der besonders in den letzten Jahrzehnten immer rascher fortschreitet und hybride Wissenschaftsbezeichnungen wie 'Physikochemie', 'Biophysik' oder 'Soziobiologie' entstehen ließ, geht ein Integrationsprozess einher, der diese Wissenschaften sich wieder annähern lässt. Diese Gleichzeitigkeit der entgegengesetzten Prozesse von Differenzierung und Integration könnte eine neue Form der Einheit der Wissenschaften schaffen, die eine Entwicklung der Wissenschaften zu einem einheitlichen Ganzes in Gang setzt. Damit könnten die großen Potentiale, die in diesem dialektischen Prozess von Differenzierung und Integration hinsichtlich neuer Forschungsergebnisse verwirklicht werden.
  18. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.02
    0.01574499 = product of:
      0.11966191 = sum of:
        0.015403059 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.015403059 = score(doc=2461,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.058049668 = weight(_text_:einzelner in 2461) [ClassicSimilarity], result of:
          0.058049668 = score(doc=2461,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.52080953 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.015403059 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.015403059 = score(doc=2461,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.015403059 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.015403059 = score(doc=2461,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.015403059 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
          0.015403059 = score(doc=2461,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41987535 = fieldWeight in 2461, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
      0.13157895 = coord(5/38)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  19. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.02
    0.0155916 = product of:
      0.0740601 = sum of:
        0.020811005 = weight(_text_:medizin in 862) [ClassicSimilarity], result of:
          0.020811005 = score(doc=862,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.020811005 = weight(_text_:medizin in 862) [ClassicSimilarity], result of:
          0.020811005 = score(doc=862,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0045257905 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.009051581 = score(doc=862,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.5 = coord(1/2)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.006223776 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.006223776 = score(doc=862,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0030171936 = product of:
          0.009051581 = sum of:
            0.009051581 = weight(_text_:29 in 862) [ClassicSimilarity], result of:
              0.009051581 = score(doc=862,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.15546128 = fieldWeight in 862, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=862)
          0.33333334 = coord(1/3)
      0.21052632 = coord(8/38)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
    Date
    13. 2.2007 20:56:29
  20. Umlauf, K.: Einführung in die bibliothekarische Klassifikationstheorie und -praxis : Mit Übungen (1999-) 0.02
    0.015548019 = product of:
      0.09847079 = sum of:
        0.01704451 = weight(_text_:und in 1710) [ClassicSimilarity], result of:
          0.01704451 = score(doc=1710,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 1710, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1710)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 1710) [ClassicSimilarity], result of:
              0.030292748 = score(doc=1710,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 1710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1710)
          0.5 = coord(1/2)
        0.01704451 = weight(_text_:und in 1710) [ClassicSimilarity], result of:
          0.01704451 = score(doc=1710,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 1710, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1710)
        0.01704451 = weight(_text_:und in 1710) [ClassicSimilarity], result of:
          0.01704451 = score(doc=1710,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 1710, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1710)
        0.015146374 = product of:
          0.030292748 = sum of:
            0.030292748 = weight(_text_:allgemein in 1710) [ClassicSimilarity], result of:
              0.030292748 = score(doc=1710,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.34831727 = fieldWeight in 1710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1710)
          0.5 = coord(1/2)
        0.01704451 = weight(_text_:und in 1710) [ClassicSimilarity], result of:
          0.01704451 = score(doc=1710,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.46462005 = fieldWeight in 1710, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1710)
      0.15789473 = coord(6/38)
    
    Abstract
    Die Einführung macht mit den Grundbegriffen der bibliothekarischen Klassifikationstheorie und -praxis sowie ausgewählten Bibliotheksklassifikationen bekannt. Eingangs wird die Problemstellung, für die Klassifikationen eine Lösung bieten sollen, umrissen. Dann werden anhand von Fragen die Aspekte zur Entwicklung und Beurteilung von Klassifikationen allgemein und Aufstellungssystematiken im Besonderen umrissen (Sachgerechtheit und Zielgruppenentsprechung, Gliederung, Schlüsselung und Normung, Notation, Klassenbeschreibung und Terminologie, Umfang und Erweiterbarkeit, Anwendungsregeln, Register). Auch organisatorische Aspekte der Anwendung von Klassifikationen werden umrissen. Kurz beschrieben werden ausgewählte Klassifikationen: Die internationale Dezimalklassifikation DK und die DDC, die Regensburger Verbundklassifikation RVK, die Basisklassifikation, die SfB, die KAB, die ASB. Es folgen ausgewählte Literaturhinweise. Ferner werden Übungen zum Klassifizieren ausgewählter Titel mit Hinweisen auf Möglichkeiten zur Selbstüberprüfung und zur Notationsrevision gegeben

Types

Themes

Subjects

Classifications