Search (613 results, page 1 of 31)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.23
    0.23272519 = product of:
      0.88435566 = sum of:
        0.052577253 = product of:
          0.15773176 = sum of:
            0.15773176 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.15773176 = score(doc=973,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.15773176 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.15773176 = score(doc=973,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.010779895 = weight(_text_:und in 973) [ClassicSimilarity], result of:
          0.010779895 = score(doc=973,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.29385152 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.2631579 = coord(10/38)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.06572157 = score(doc=4388,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.06572157 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4388,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.00777972 = weight(_text_:und in 4388) [ClassicSimilarity], result of:
          0.00777972 = score(doc=4388,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 4388, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.2631579 = coord(10/38)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.10042999 = product of:
      0.38163394 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.06572157 = score(doc=1000,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.06572157 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.06572157 = score(doc=1000,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.00777972 = weight(_text_:und in 1000) [ClassicSimilarity], result of:
          0.00777972 = score(doc=1000,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.21206908 = fieldWeight in 1000, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.2631579 = coord(10/38)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.06
    0.062970705 = product of:
      0.39881447 = sum of:
        0.07886588 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.07886588 = score(doc=563,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.07886588 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.07886588 = score(doc=563,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.07886588 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.07886588 = score(doc=563,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.07886588 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.07886588 = score(doc=563,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.07886588 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.07886588 = score(doc=563,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.004485078 = product of:
          0.013455234 = sum of:
            0.013455234 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.013455234 = score(doc=563,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.06
    0.061468907 = product of:
      0.3893031 = sum of:
        0.017525753 = product of:
          0.052577257 = sum of:
            0.052577257 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.052577257 = score(doc=5820,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.07435547 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07435547 = score(doc=5820,freq=4.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.07435547 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07435547 = score(doc=5820,freq=4.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.07435547 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07435547 = score(doc=5820,freq=4.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.07435547 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07435547 = score(doc=5820,freq=4.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.07435547 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.07435547 = score(doc=5820,freq=4.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.15789473 = coord(6/38)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  6. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.06
    0.05534448 = product of:
      0.35051507 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.06572157 = score(doc=4997,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4997,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.06572157 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4997,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.06572157 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4997,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.06572157 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4997,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.06572157 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.06572157 = score(doc=4997,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.15789473 = coord(6/38)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.06
    0.05534448 = product of:
      0.35051507 = sum of:
        0.021907192 = product of:
          0.06572157 = sum of:
            0.06572157 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.06572157 = score(doc=855,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.06572157 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.06572157 = score(doc=855,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.06572157 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.06572157 = score(doc=855,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.06572157 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.06572157 = score(doc=855,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.06572157 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.06572157 = score(doc=855,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.06572157 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.06572157 = score(doc=855,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.15789473 = coord(6/38)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.04
    0.044275586 = product of:
      0.28041205 = sum of:
        0.017525753 = product of:
          0.052577257 = sum of:
            0.052577257 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.052577257 = score(doc=701,freq=2.0), product of:
                0.14032625 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.016551789 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.052577257 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.052577257 = score(doc=701,freq=2.0), product of:
            0.14032625 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.016551789 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.15789473 = coord(6/38)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Capelle, I.: Vergleich zwischen Wissenschaftsklassifikationen einzelner Philosophen (Bacon, d'Alembert, Hegel, Rickert und Wundt) und der Allgemeinen Systematik für Büchereien (ASB) (1961) 0.02
    0.024637239 = product of:
      0.18724301 = sum of:
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.116099335 = weight(_text_:einzelner in 1293) [ClassicSimilarity], result of:
          0.116099335 = score(doc=1293,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            1.0416191 = fieldWeight in 1293, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
        0.01778592 = weight(_text_:und in 1293) [ClassicSimilarity], result of:
          0.01778592 = score(doc=1293,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.4848303 = fieldWeight in 1293, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1293)
      0.13157895 = coord(5/38)
    
  10. Fröhlich, T.: Vorüberlegungen zu einem Gesamtkatalog der Bibliotheken des Deutschen Archäologischen Instituts (DAI) (2001) 0.02
    0.019103566 = product of:
      0.120989256 = sum of:
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.035341542 = product of:
          0.070683084 = sum of:
            0.070683084 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.070683084 = score(doc=4980,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
        0.035341542 = product of:
          0.070683084 = sum of:
            0.070683084 = weight(_text_:allgemein in 4980) [ClassicSimilarity], result of:
              0.070683084 = score(doc=4980,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.8127403 = fieldWeight in 4980, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4980)
          0.5 = coord(1/2)
        0.012576545 = weight(_text_:und in 4980) [ClassicSimilarity], result of:
          0.012576545 = score(doc=4980,freq=2.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.34282678 = fieldWeight in 4980, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4980)
      0.15789473 = coord(6/38)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
    Theme
    Katalogfragen allgemein
  11. Schmidt, S.: Vergleich exemplarischer XML-Datenbanken in Konzeption, Anwendung und verfügbaren Schnittstellen in Abgrenzung zu relationalen, objektorientierten und XML fähigen Datenbanken (2004) 0.02
    0.018752353 = product of:
      0.11876491 = sum of:
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.035341542 = score(doc=3704,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
        0.017670771 = product of:
          0.035341542 = sum of:
            0.035341542 = weight(_text_:allgemein in 3704) [ClassicSimilarity], result of:
              0.035341542 = score(doc=3704,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.40637016 = fieldWeight in 3704, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3704)
          0.5 = coord(1/2)
        0.02085584 = weight(_text_:und in 3704) [ClassicSimilarity], result of:
          0.02085584 = score(doc=3704,freq=22.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.56851393 = fieldWeight in 3704, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3704)
      0.15789473 = coord(6/38)
    
    Abstract
    Unabhängigkeit von Plattformen und Fähigkeit, Daten verlustfrei über das Internet auszutauschen, verhalfen der eXtensible Markup Language (XML) zum Durchbruch mit der daraus resultierenden Forderung nach und Entwicklung von nativen XML-Datenbanken. Behandelt wird, in wie weit an native XML-Datenbanken bereits ein Standard gelegt werden kann und für welche Einsatzgebiete sie geeignet sind. Dies geschieht über die Definition von Datenbanken und Anfragesprachen allgemein, unter der Betrachtung von XML-fähigen Datenbanken und mittels Vergleich von Xindice, eXist, Tamino und Natix als exemplarischen XML-Datenbanken in Konzept, verfügbaren Features und Handhabbarkeit.
    Footnote
    Diplomarbeit im Studiengang Bibliotheks- und Informationsmanagement
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  12. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.018104043 = product of:
      0.13759072 = sum of:
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.058049668 = weight(_text_:einzelner in 782) [ClassicSimilarity], result of:
          0.058049668 = score(doc=782,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.52080953 = fieldWeight in 782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
        0.019885262 = weight(_text_:und in 782) [ClassicSimilarity], result of:
          0.019885262 = score(doc=782,freq=20.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.54205674 = fieldWeight in 782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=782)
      0.13157895 = coord(5/38)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  13. Mattmann, B.: ¬Die Möglichkeiten von RDA bei der Erschliessung historischer Sondermaterialien : Analyse der Beschreibungs- und Erschließungsmöglicjkeiten von Resource Description and Access für die historischen Sondermaterialien Brief und Fotografie (2014) 0.02
    0.017894212 = product of:
      0.13599601 = sum of:
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.04975686 = weight(_text_:einzelner in 1651) [ClassicSimilarity], result of:
          0.04975686 = score(doc=1651,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.44640818 = fieldWeight in 1651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
        0.02155979 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
          0.02155979 = score(doc=1651,freq=32.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.58770305 = fieldWeight in 1651, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1651)
      0.13157895 = coord(5/38)
    
    Abstract
    Der neue Erschliessungsstandard RDA beschäftigt aktuell unzählige Arbeitsgruppen und Einzelpersonen aus verschiedenen Ländern. Dabei geht es vor allem um die Anpassung einzelner Regeln und Konzepte an lokale Gegebenheiten und spezifische Medientypen. Das erklärte Ziel, den Standard auch für nicht-bibliothekarische Communities attraktiv zu machen, stand jedoch bislang im Hintergrund. Es ist unklar, ob und wie sich RDA beispielsweise in Archiven und Sondersammlungen anwenden lässt. Diese Bachelorarbeit widmet sich dieser Unsicherheit und untersucht die Möglichkeiten der Katalogisierung von ausgewählten archivalischen Ressourcen. Mittels einer Literaturanalyse werden die von Nutzern und Erschliessenden als essenziell erachteten Merkmale von Briefen und Fotografien erhoben und auf die Beschreibungsmöglichkeiten mit RDA hin untersucht. Dabei zeigt sich, dass der Standard grundsätzlich aufgeschlossen gegenüber archivalischen und historischen Ressourcen ist und sich lediglich vereinzelte Anpassungen von Begriffslisten und An- wendungsregeln empfehlen. Entscheidende Fragestellungen, wie die Abbildung von Kontextualität und Hierarchien, müssen jedoch noch geklärt werden, um die Attraktivität des Standards für nicht-bibliothekarische Communities weiter zu verbessern.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft
  14. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.01782473 = product of:
      0.09676282 = sum of:
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.029431203 = weight(_text_:medizin in 897) [ClassicSimilarity], result of:
          0.029431203 = score(doc=897,freq=4.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.3333662 = fieldWeight in 897, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 897) [ClassicSimilarity], result of:
              0.005386828 = score(doc=897,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=897)
          0.5 = coord(1/2)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
        0.008801748 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.008801748 = score(doc=897,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.18421052 = coord(7/38)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
    Date
    4. 6.2013 14:03:39
    Field
    Medizin
  15. Schwartz, D.: Einsatz und Leitbilder der Datenverarbeitung in Bibliotheken : dargestellt an ausgewählten Projekten der Deutschen Forschungsgemeinschaft (2004) 0.02
    0.017722316 = product of:
      0.09620686 = sum of:
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.01658562 = weight(_text_:einzelner in 1447) [ClassicSimilarity], result of:
          0.01658562 = score(doc=1447,freq=2.0), product of:
            0.111460455 = queryWeight, product of:
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.016551789 = queryNorm
            0.14880273 = fieldWeight in 1447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7340426 = idf(docFreq=142, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.0023325651 = product of:
          0.0046651303 = sum of:
            0.0046651303 = weight(_text_:4 in 1447) [ClassicSimilarity], result of:
              0.0046651303 = score(doc=1447,freq=6.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.10386214 = fieldWeight in 1447, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.5 = coord(1/2)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.014924089 = weight(_text_:und in 1447) [ClassicSimilarity], result of:
          0.014924089 = score(doc=1447,freq=138.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.40681902 = fieldWeight in 1447, product of:
              11.74734 = tf(freq=138.0), with freq of:
                138.0 = termFreq=138.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=1447)
        0.017592315 = product of:
          0.052776944 = sum of:
            0.052776944 = weight(_text_:datenverarbeitung in 1447) [ClassicSimilarity], result of:
              0.052776944 = score(doc=1447,freq=26.0), product of:
                0.10471074 = queryWeight, product of:
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.016551789 = queryNorm
                0.50402606 = fieldWeight in 1447, product of:
                  5.0990195 = tf(freq=26.0), with freq of:
                    26.0 = termFreq=26.0
                  6.326249 = idf(docFreq=214, maxDocs=44218)
                  0.015625 = fieldNorm(doc=1447)
          0.33333334 = coord(1/3)
      0.18421052 = coord(7/38)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: ZfBB 52(2005) H.2, S.105-107 (R. Altenhöner):"In seiner 2003 am Institut für Bibliothekswissenschaft der Humboldt-Universität zu Berlin erstellten und angenommenen Dissertation untersucht Dieter Schwartz 30 Jahre Einsatz der Datenverarbeitung in Bibliotheken. Dabei interessieren ihn erklärtermaßen besonders die Leitbilder, die im historischen Rückblick auf die Zeit zwischen 1965 und 1995 zum Tragen kamen. Zugrunde gelegt hat er für dieses Unterfangen im Wesentlichen Projekte, die im Rahmen des Förderprogramms Modernisierung und Rationalisierung der Deutschen Forschungsgemeinschaft in diesem Zeitraum durchgeführt wurden. Inhalt und Vorgehen der Arbeit lassen sich wie folgt zusammenfassen: In einem ersten Teil wird nach einer sechsseitigen Einführung auf knapp 25 Seiten ein geschichtlicher Abriss der Datenverarbeitung gegeben, der sich im Wesentlichen auf allgemeine Grundlagenliteratur und einführende Handbücher stützt. Die folgenden rund 5o Seiten widmen sich dann dem eigentlichen Untersuchungsgegenstand: Schwartz zählt diverse Projekte aus der Laufzeit des Programms auf und bemüht sich darum,jede wertende Betrachtung zu unterlassen. Der Vorbereitung der eigentlichen kritischen Analyse dient das nächste Kapitel: Hierzu werden - auf wiederum knapp 25 Seiten ausgeführt - die Elemente »DFG, Projekte, Modernisierung und Rationalisierung sowie Innovation und Technik« herausgearbeitet und beschrieben, die Schwartz zu »geeigneten Betrachtungsgrößen« erklärt (S. 99). Das folgende Kapitel, »Kritische und vergleichende Betrachtung der beschriebenen Bibliotheksprojekte« stellt mit seinen 65 Seiten somit das eigentliche Herzstück der Arbeit dar. Hier sind die versprochenen Erkenntnisse aus dem Einleitungskapitel, nämlich »gegenwärtigen und zukünftigen Projekten der Datenverarbeitung die Ursprünge aufzuzeigen« (S. XI f) zu erwarten, da »das Studium der Vergangenheit ... der Gegenwart dienen und eine ergebnisreiche Zukunft vorbereiten« solle. Schwartz bietet außerdem als Dreingabe auf gut 25 Seiten eine zusammenfassende Betrachtung inklusive Ausblick auf die aktuellen Diskussionen, um abschließend nochmals eine Zusammenfassung auf nun einer Seite folgen zu lassen. Weitere rund 70 Seiten füllt der Anhang, der u.a. Förderrichtlinien der DFG, den DFG-Leitfaden für Antragsteller aus dem WWW übernimmt und abdruckt, einige aus sekundären Quellen übernommene Übersichten, ferner eine Auflistung der behandelten Projekte, einen Abschnitt mit Begriffsklärungen im Kontext von Bewertungsgrößen und Leistungsparametern und schließlich - neben dem ausführlichen Abkürzungs- und Literaturverzeichnis, das eine bunte und erkennbar höchst unterschiedlich intensiv in die Arbeit eingegangene Sammlung enthält - The-menvorschläge für weitere Arbeiten, auf die noch einmal zurückzukommen sein wird (S. 222 f). Ein Register fehlt bedauerlicherweise.
    Methodisch gruppiert sich - das wurde schon deutlich - die Arbeit um Termini wie »Leitbilder«, »Modernisierung«, »Rationalisierung«, »Innovation« und will dies mit konkreten Projekten in einer »praxisbezogenen Sichtweise« (so der Klappentext) kontrastieren. Von diesem Zugang her stellt die Arbeit einen durchaus interessanten Ansatz zur historischen Würdigung der Datenverarbeitung und ihrer Rolle im Entwicklungsprozess der Bibliotheken dar. Schwartz will die »Projekte in ihrer Gesamtheit mit übergreifenden Beschreibungsmerkmalen und Entwicklungsphasen, insbesondere Ziele und Leitbilder der Bibliotheksprojekte« betrachten und herausarbeiten (S.4). Problematisch ist allerdings dabei, dass das methodische Vorgehen nicht ausreichend tief erfolgt oder auch nur einmal zusammenfassend reflektiert wird und mit der Auswahl und den ausgewählten »Quellen« selbst völlig unkritisch umgegangen wird. Weder wird klar definiert, was eigentlich unter einem »Leitbild« verstanden wird, noch, was diese Leitbilder eigentlich ausmacht oder was sie sind. Ähnliches gilt für das zugrunde gelegte Material: Werden die DFG-geförderten Projekte als Abbild der Gesamtentwicklung gesehen und wenn dies so gemeint ist, warum wird es nicht deutlich gesagt und entsprechend belegt? Eine nicht begründete affirmative Aussage zum Ende der Arbeit: »Die beschriebenen DFG-Projekte sind aufgrund ihrer thematischen Breite ein Spiegelbild der technischen Entwicklung zum Einsatz der Datenverarbeitung in Bibliotheken.« (S. 162) reicht dazu nicht aus. Wieso wird primär ein Förderprogramm (und das zeitlich teilweise parallele Förderprogramm »Informationsvermittlung in Bibliotheken«) untersucht? Wie betten sich die Aktivitäten in andere Förderaktivitäten der DFG ein und vor allem: Welchen Bezug hatte diese Förderlinie zu den Rahmenplanungen und Positionspapieren der DFG? Schlimmer noch: Einerseits wird ausdrücklich darauf verzichtet, eigene Bewertungen zu Projekten oder auch zu besprochenen Förderaktivitäten abzugeben (S.4 f), stattdessen werden »Kommentare und Bewertungen der Projekte aus vorhandenen Quellen herangezogen« (S.5). Andererseits werden diese (Selbst-)Statements aus dem DFGKontext selbst, in dünner Auswahl aber auch aus der zeitgenössischen Projektberichterstattung der Projektnehmer völlig unkritisch übernommen (S.111 f, 141 ff.). Zwar werden ausführlich Erfolgsparameter für Projekte diskutiert, andererseits aber verbiete sich jede Wertung bzw. Erfolgskontrolle (S.79 ff.). Gütekriterien werden benannt, aber extrem kurz abgehandelt: So ist etwa der Grad der Akzeptanz eines Projekts gerade einmal zwölf Zeilen wert (5.146) und wird auch später nicht weiter berücksichtigt.
    In diesem eigentümlichen Sinne schwankend und vage ist der ganze methodische Ansatz. Fragen etwa, ob und wie Entscheidungsstrukturen der DFG Einfluss auf die Auswahl und die Durchführung bestimmter Projekte hatten, ob es in bestimmten Perioden bestimmte Leitbibliotheken und Leitprojekte gab werden erst gar nicht gestellt. Hinzu kommen unsaubere sachliche und zeitliche Abgrenzungen: Einerseits wird der Fokus eng auf die DFG-Projek te ausgerichtet und in dieser »geschlossenen Welt« beschrieben, da und dort aber wird doch darauf verwiesen, dass etwa die ersten experimentellen Ansätze zur Übernahme der Hollerith-Lochkartentechnik deutlich vor den ersten DFGProjekten lagen (S.40 f.). Wenn es schließlich um die Definition der kritischen »Betrachtungsgrößen« geht, verschwimmen bereits in der Arbeit beschriebene Ansätze, übernommenes Vokabular aus der DFG-För-derung und der Projekte und der Berichte über sie vollkommen ineinander und jede kritische Distanz schwindet. Fragen zum Beispiel, ob und wie Einsatzbedingungen der Datenverarbeitung in den Bibliotheken Projekte prägten und umgekehrt inwieweit die Datenverarbeitung geplant als Ansatz zu Reorganisation der Geschäftsabläufe in Bibliotheken eingesetzt wurde, werden bestenfalls gestreift, aber nicht systematisch zusammengefasst und bewertet. Ist überhaupt die Isolierung des Aspektes Datenverarbeitung legitim - unter Verzicht auf alle anderen »Betrachtungsgrößen«? Wenn zudem der internationale Einfluss weitgehend ausgeblendet wird und generelle oder nationale Debatten im Bibliothekswesen ausgespart bleiben, kann der Erkenntnisgewinn insgesamt nur klein bleiben. Eine Wertung findet nicht statt Die Tendenz, auf wertende Aussagen zu verzichten und nur in Ansätzen den Stoff systematisch zu betrachten, zieht sich durch die ganze Arbeit. Verbunden mit der großen Zahl redundanter Äußerungen, die immer wieder um die »eingehämmerten« Begriffe des Förderprogramms, also Rationalisierung, Modernisierung und Innovation, kreisen, ist die Lektüre insgesamt daher wenig spannend (Beispiele: S.4 ff., 41 ff., 78 ff., gaff, 104 ff., 154 ff., 165 ff., 170 f., 180 ff.) Einzelne kleine Aspekte im Sinne anekdotischer Details aus einzelnen Projektberichten mögen von Interesse sein (Begleitumstände der Entstehung von MAB [S. 51], die Idee, eine eigene höhere Programmiersprache für Bibliotheksanwendungen zu schaffen [S. 136]), es gelingt Schwartz aber nicht, größere Linien herauszuarbeiten. So versucht er zwar, 30 Jahre DFG-Förderung zu systematisieren, greift dazu aber ausschließlich auf die (wenigen) Selbstäußerungen der Geschäftsstelle zurück. Die behauptete Schwerpunktverlagerung von »Übernahme-« zu echten Entwicklungsprojekten ab 1973 (S. 106) oder generell von eher experimentell ausgerichteten Projekten zu Beginn des Förderprogramms zu »grundlegenden und langfristigen Zielrichtungen« (S. 103 ff., 120 ff., 162 ff.) bleibt vage und wird nicht belegt - und ist auch wohl kaum belegbar. Eine Gesamtbetrachtung der Förderaktivitäten der DFG im Bibliotheksbereich kommt kaum in den Blick, dafür wird die Gesamtorganisation der DFG ausführlich beschrieben. Gleiches gilt für das Begutachtungssystem der DFG, das weder zutreffend beschrieben (Zusammenspiel Gutachter - Unterausschüsse - Bibliotheksausschuss - Geschäftsstelle), noch ergebnisbezogen analysiert wird (S.54 ff., 108, 116, 120 ff.). Stattdessen kommen sehr allgemeine Aussagen heraus, die nicht weiterführen: wie »Projekte sollen Forschung unterstützen« (S. 87) oder: »Die DFG fördert mit ihren Programmen das Bibliothekswesen in unterschiedlichen Bereichen« (S. go) - wohlgemerkt als Ergebnisformulierung am Ende eines Abschnitts.
    Insgesamt erhält man so mehr eine Materialansammlung zum Thema als eine Aufarbeitung-auch wenn die zum Teil fein gegliederte extreme Kapitelaufteilung etwas anderes suggeriert. Verbunden mit der starken Fußnotenlastigkeit (oft mehr als die Hälfte einer Seite einnehmend mit z.T. kuriosen Auswüchsen, wenn etwa von einer Textstelle auf zwei hintereinander stehende Fußnoten mit inhaltlich nahezu gleichen Aussagen verwiesen wird [S.72, 247/248]) ist die im Übrigen technisch sehr sauber erstellte Arbeit (ein Kolumnenfehler S.64, kaum Tippfehler) aus meiner Sicht keine Leseempfehlung. Wirksamkeit der Projekte? In doppeltem Sinne interessant ist der Hinweis auf weiteren Untersuchungsbedarf (S.222), hier macht Schwartz zwei Vorschläge. Zum einen solle man den Betrachtungsfokus auf das Ausland (und hier insbesondere die USA) und auf einen Systemvergleich (DDR) legen, zum anderen einen Vergleich organisatorischer Strukturen in kommerziellen Unternehmen und Bibliotheken ziehen, der klären solle, ob »Unternehmen - im Gegensatz zu Bibliotheken - aufgrund ihrer inneren Strukturen besser in der Lage sind, innovative Entwicklungen aufzugreifen und erfolgreich in den Routinebetrieb umzusetzen« (S.223). Die so indirekt getroffene Aussage zu Bibliotheken, über eine geringe Innovationsfähigkeit zu verfügen, ist für sich wohl wenig überraschend. Erstaunlich aber ist, dass diese Erkenntnis in der gesamten Arbeit nicht klar ausgesprochen wird - und da her auch in der Analyse der Projekte und der Förderanstrengungen der DFG keine Rolle spielt. Zwar wird an manchen Stellen auf Probleme bei der Nachnutzung von Projektergebnissen und auf Widerstände in Bibliotheken verwiesen (immer in Form von zeitgenössischen Zitaten); diese Äußerungen werden dann aber sofort wieder durch anders lautende Aussagen relativiert (s.a. die Zusammenfassung, S. 194). Hier aber liegen tatsächlich interessante Ansätze: Wie lässt sich die »Wirksamkeit« bestimmter Projekte untersuchen, was zur Wirkungsgeschichte bestimmter technischer Innovationen in Bibliotheken sagen? In diesem Zusammenhang müssten DFG-Positionspapiere und Stellungnahmen des Bibliotheksausschusses viel breiter berücksichtigt werden. Auch eine zahlenbasierte Analyse von 30 Jahren DFG-Förderung lässt möglicherweise interessante Schlüsse zu und spiegelt sich wandelnde Förderschwerpunkte. Wie ist das spezifische Gutachter-System der DFG im Kontext der Bibliotheksförderung zu sehen, inwieweit wirkten Gutachter aus Forschung und Wissenschaft erkennbar inhaltlich ein? Wie hat sich das Bild der Geschäftsstelle in dieser Zeit verändert und inwieweit existiert eine eigene Binnendynamik der Geschäftsstellenaktivitäten? Sind Begutachtungsmaßstäbe und Veränderungen in 30 Jahren erkennbar? Dies wäre schon deshalb interessant, weil die DFG-Projekteja nicht nur einfach Spiegelbild der Geschichte sind, sondern durchaus auch von speziellen Interessen gesteuert sind und eigenen Leitbildern folgen. Der Mut zu selbstverständlich begründeten Bewertungen einerseits und eine vertiefte Analyse einzelner ausgewählter Projekte und ihrer jeweiligen Wirkungsgeschichte andererseits hätten sicherlich einen größeren Erkenntnisgewinn gebracht. Wenn einmal in der Arbeit konkret ein Leitbild inhaltlich benannt wird, nämlich das traditionelle »Leitbild eines einheitlichen und gemeinschaftlichen Bibliothekswesens« (in der Zusammenfassung, S.195), wird erheblich klarer, was denn eigentlich gemeint ist."
    RSWK
    Wissenschaftliche Bibliothek / Datenverarbeitung / Innovationsmanagement / Projekt / Deutsche Forschungsgemeinschaft / Geschichte 1965-1995
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Subject
    Wissenschaftliche Bibliothek / Datenverarbeitung / Innovationsmanagement / Projekt / Deutsche Forschungsgemeinschaft / Geschichte 1965-1995
  16. Mayr, P.: Re-Ranking auf Basis von Bradfordizing für die verteilte Suche in Digitalen Bibliotheken (2009) 0.02
    0.017709764 = product of:
      0.096138716 = sum of:
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.020811005 = weight(_text_:medizin in 4302) [ClassicSimilarity], result of:
          0.020811005 = score(doc=4302,freq=2.0), product of:
            0.08828491 = queryWeight, product of:
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.016551789 = queryNorm
            0.23572549 = fieldWeight in 4302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.333859 = idf(docFreq=579, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.002693414 = product of:
          0.005386828 = sum of:
            0.005386828 = weight(_text_:4 in 4302) [ClassicSimilarity], result of:
              0.005386828 = score(doc=4302,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.11992966 = fieldWeight in 4302, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4302)
          0.5 = coord(1/2)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
        0.012955822 = weight(_text_:und in 4302) [ClassicSimilarity], result of:
          0.012955822 = score(doc=4302,freq=26.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.3531656 = fieldWeight in 4302, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4302)
      0.18421052 = coord(7/38)
    
    Abstract
    Trotz großer Dokumentmengen für datenbankübergreifende Literaturrecherchen erwarten akademische Nutzer einen möglichst hohen Anteil an relevanten und qualitativen Dokumenten in den Trefferergebnissen. Insbesondere die Reihenfolge und Struktur der gelisteten Ergebnisse (Ranking) spielt, neben dem direkten Volltextzugriff auf die Dokumente, inzwischen eine entscheidende Rolle beim Design von Suchsystemen. Nutzer erwarten weiterhin flexible Informationssysteme, die es unter anderem zulassen, Einfluss auf das Ranking der Dokumente zu nehmen bzw. alternative Rankingverfahren zu verwenden. In dieser Arbeit werden zwei Mehrwertverfahren für Suchsysteme vorgestellt, die die typischen Probleme bei der Recherche nach wissenschaftlicher Literatur behandeln und damit die Recherchesituation messbar verbessern können. Die beiden Mehrwertdienste semantische Heterogenitätsbehandlung am Beispiel Crosskonkordanzen und Re-Ranking auf Basis von Bradfordizing, die in unterschiedlichen Phasen der Suche zum Einsatz kommen, werden hier ausführlich beschrieben und im empirischen Teil der Arbeit bzgl. der Effektivität für typische fachbezogene Recherchen evaluiert. Vorrangiges Ziel der Promotion ist es, zu untersuchen, ob das hier vorgestellte alternative Re-Rankingverfahren Bradfordizing im Anwendungsbereich bibliographischer Datenbanken zum einen operabel ist und zum anderen voraussichtlich gewinnbringend in Informationssystemen eingesetzt und dem Nutzer angeboten werden kann. Für die Tests wurden Fragestellungen und Daten aus zwei Evaluationsprojekten (CLEF und KoMoHe) verwendet. Die intellektuell bewerteten Dokumente stammen aus insgesamt sieben wissenschaftlichen Fachdatenbanken der Fächer Sozialwissenschaften, Politikwissenschaft, Wirtschaftswissenschaften, Psychologie und Medizin. Die Evaluation der Crosskonkordanzen (insgesamt 82 Fragestellungen) zeigt, dass sich die Retrievalergebnisse signifikant für alle Crosskonkordanzen verbessern; es zeigt sich zudem, dass interdisziplinäre Crosskonkordanzen den stärksten (positiven) Effekt auf die Suchergebnisse haben. Die Evaluation des Re-Ranking nach Bradfordizing (insgesamt 164 Fragestellungen) zeigt, dass die Dokumente der Kernzone (Kernzeitschriften) für die meisten Testreihen eine signifikant höhere Precision als Dokumente der Zone 2 und Zone 3 (Peripheriezeitschriften) ergeben. Sowohl für Zeitschriften als auch für Monographien kann dieser Relevanzvorteil nach Bradfordizing auf einer sehr breiten Basis von Themen und Fragestellungen an zwei unabhängigen Dokumentkorpora empirisch nachgewiesen werden.
    Date
    4. 4.2009 9:17:47
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
  17. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.02
    0.017463338 = product of:
      0.11060114 = sum of:
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.013577371 = product of:
          0.027154742 = sum of:
            0.027154742 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.027154742 = score(doc=9,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.5 = coord(1/2)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.015245074 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.015245074 = score(doc=9,freq=4.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.41556883 = fieldWeight in 9, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=9)
        0.036043473 = product of:
          0.05406521 = sum of:
            0.027154742 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.027154742 = score(doc=9,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.026910467 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.026910467 = score(doc=9,freq=2.0), product of:
                0.057961546 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.016551789 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.15789473 = coord(6/38)
    
    Date
    22. 2.1997 19:50:29
    Imprint
    Wien : Universität / Grund- und Integrativwissenschaftliche Fakultät
  18. Wunderlich, B.: ¬Die wissenschaftliche Erschließung von Bekleidung mit systematischen Ordnungssystemen im musealen Kontext : Wie bekommt man Hemd und Hose in die Datenbank? (2005) 0.02
    0.01684539 = product of:
      0.10668747 = sum of:
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.019201303 = product of:
          0.038402606 = sum of:
            0.038402606 = weight(_text_:29 in 4173) [ClassicSimilarity], result of:
              0.038402606 = score(doc=4173,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.6595664 = fieldWeight in 4173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4173)
          0.5 = coord(1/2)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.018671326 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.018671326 = score(doc=4173,freq=6.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.5089658 = fieldWeight in 4173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4173)
        0.012800869 = product of:
          0.038402606 = sum of:
            0.038402606 = weight(_text_:29 in 4173) [ClassicSimilarity], result of:
              0.038402606 = score(doc=4173,freq=4.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.6595664 = fieldWeight in 4173, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4173)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:29:52
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Institut für Information und Dokumentation
  19. Treue, L.: ¬Das Konzept Informationskompetenz : ein Beitrag zur theoretischen und praxisbezogenen Begriffsklärung (2011) 0.02
    0.016735246 = product of:
      0.09084848 = sum of:
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.0033667674 = product of:
          0.006733535 = sum of:
            0.006733535 = weight(_text_:4 in 214) [ClassicSimilarity], result of:
              0.006733535 = score(doc=214,freq=2.0), product of:
                0.044916563 = queryWeight, product of:
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.016551789 = queryNorm
                0.14991207 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.7136984 = idf(docFreq=7967, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
        0.012621979 = product of:
          0.025243958 = sum of:
            0.025243958 = weight(_text_:allgemein in 214) [ClassicSimilarity], result of:
              0.025243958 = score(doc=214,freq=2.0), product of:
                0.08696884 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.016551789 = queryNorm
                0.2902644 = fieldWeight in 214, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=214)
          0.5 = coord(1/2)
        0.01555944 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.01555944 = score(doc=214,freq=24.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.42413816 = fieldWeight in 214, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=214)
      0.18421052 = coord(7/38)
    
    Abstract
    Das Konzept Informationskompetenz entwickelt sich im deutschsprachigen Raum seit den 1990er-Jahren zu einem Schlüsselbegriff des Bildungs- und Bibliothekswesens. Es handelt sich um einen Transfer des Konzepts "information literacy", welches im angloamerikanischen Raum bereits seit den 1980er-Jahren etabliert ist und allgemein für eine Fähigkeit im Umgang mit Information benutzt wird. Der Informationsbegriff als Bezugspunkt der Fähigkeit im Umgang mit Information wird in dieser Arbeit etymologisch, nachrichtentechnisch, zeichentheoretisch und als Grundbegriff der Informationswissenschaft betrachtet. Der medienhistorische Zusammenhang wird in einer Untersuchung zum Begriffsaufkommen nachgewiesen und analysiert. Die Entwicklung des Konzepts wird von seinem ersten Aufkommen bis zu neueren zielgruppenfokussierten Anwendungen wie der Informationskompetenz in Unternehmen (IKU) nachgezeichnet. Als Beispiel aus der Praxis wird das Berliner Projekt "Informationskompetenz als Schlüsselqualifikation für lebenslanges Lernen von Hochschulabsolventen in kleinen und mittleren Unternehmen" (2005-2008) betrachtet. Die Untersuchung der Verwendung des Begriffes sowie seiner praktischen Wirkungen sollen im Sinne der Pragmatischen Maxime einen Beitrag zur Begriffsklärung leisten. Trotz der starken Verbreitung dieses Konzepts zeichnet es sich durch terminologische Unklarheit und einen permanenten Diskurs zu dessen Inhalten und Bedeutungen dieses Begriffs aus. Die Arbeit dokumentiert die Lücke zwischen der theoretischen informationswissenschaftlichen Konzeption und der Anwendung im Bildungs- und Bibliotheksbereich und formuliert in diesem Kontext Desiderate für die Informationswissenschaft.
    Date
    4. 6.2012 17:39:26
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  20. Mundt, M.: Vergleichende Untersuchung der Abfrageoberflächen bibliographischr Datenbanken und eines Metainformationssystems, dargestellt am Beispiel von Datenbanksystemen des Umweltbundesamtes (1999) 0.02
    0.016630292 = product of:
      0.10532519 = sum of:
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.028876819 = sum of:
          0.010773656 = weight(_text_:4 in 7552) [ClassicSimilarity], result of:
            0.010773656 = score(doc=7552,freq=2.0), product of:
              0.044916563 = queryWeight, product of:
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.016551789 = queryNorm
              0.23985931 = fieldWeight in 7552, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.7136984 = idf(docFreq=7967, maxDocs=44218)
                0.0625 = fieldNorm(doc=7552)
          0.018103162 = weight(_text_:29 in 7552) [ClassicSimilarity], result of:
            0.018103162 = score(doc=7552,freq=2.0), product of:
              0.05822402 = queryWeight, product of:
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.016551789 = queryNorm
              0.31092256 = fieldWeight in 7552, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5176873 = idf(docFreq=3565, maxDocs=44218)
                0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.017603496 = weight(_text_:und in 7552) [ClassicSimilarity], result of:
          0.017603496 = score(doc=7552,freq=12.0), product of:
            0.036684837 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.016551789 = queryNorm
            0.47985753 = fieldWeight in 7552, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=7552)
        0.0060343873 = product of:
          0.018103162 = sum of:
            0.018103162 = weight(_text_:29 in 7552) [ClassicSimilarity], result of:
              0.018103162 = score(doc=7552,freq=2.0), product of:
                0.05822402 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.016551789 = queryNorm
                0.31092256 = fieldWeight in 7552, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=7552)
          0.33333334 = coord(1/3)
      0.15789473 = coord(6/38)
    
    Abstract
    In der vorliegenden Arbeit werden 4 Abfrageoberflächen unterschiedlicher Retrievalsysteme, die für die Mitarbeiter des Umweltbundesamtes Berlin zugänglich sind, im Hinblick auf Nutzerfreundlichkeit und intuitiver Bedienbarkeit vergleichend untersucht. Der 'Einfachdialog' und die Oberfläche der 'Umwelt-CD' greifen auf die Datenbestände der Umweltdatenbanken zu. Berücksichtigt werden hierbei die Oberflächen zur Recherche in ULIDAT und UFORDAT. Das Metadatensystem UDK (Umweltdatenkatalog) wird in der PC-Version, dem 'UDK-UBA', und in der WWW-Variante in die Untersuchung einbezogen
    Date
    28.11.1999 13:32:29
    Imprint
    Potsdam : Institut für Information und Dokumentation

Languages

  • d 581
  • e 25
  • f 2
  • a 1
  • hu 1
  • More… Less…

Types

  • el 24
  • m 19
  • r 2
  • a 1
  • More… Less…

Themes

Subjects

Classifications