Search (505 results, page 1 of 26)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.47
    0.46800113 = product of:
      0.93600225 = sum of:
        0.05441115 = product of:
          0.27205575 = sum of:
            0.27205575 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.27205575 = score(doc=973,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.2 = coord(1/5)
        0.27205575 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.27205575 = score(doc=973,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.032711938 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.032711938 = score(doc=973,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.27205575 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.27205575 = score(doc=973,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.032711938 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.032711938 = score(doc=973,freq=6.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.27205575 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.27205575 = score(doc=973,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(6/12)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.21
    0.20863046 = product of:
      0.41726092 = sum of:
        0.022671314 = product of:
          0.11335657 = sum of:
            0.11335657 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.11335657 = score(doc=1000,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.2 = coord(1/5)
        0.11335657 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11335657 = score(doc=1000,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.027259948 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.027259948 = score(doc=1000,freq=24.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11335657 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11335657 = score(doc=1000,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.027259948 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.027259948 = score(doc=1000,freq=24.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11335657 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11335657 = score(doc=1000,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(6/12)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  3. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.21
    0.20746993 = product of:
      0.41493985 = sum of:
        0.022671314 = product of:
          0.11335657 = sum of:
            0.11335657 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.11335657 = score(doc=4388,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.2 = coord(1/5)
        0.11335657 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4388,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.026099412 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.026099412 = score(doc=4388,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11335657 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4388,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.026099412 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.026099412 = score(doc=4388,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11335657 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4388,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(6/12)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  4. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.19
    0.18585733 = product of:
      0.31861258 = sum of:
        0.01813705 = product of:
          0.090685256 = sum of:
            0.090685256 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.090685256 = score(doc=701,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.2 = coord(1/5)
        0.090685256 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.090685256 = score(doc=701,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.01259083 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.01259083 = score(doc=701,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.090685256 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.090685256 = score(doc=701,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.01259083 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.01259083 = score(doc=701,freq=8.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.090685256 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.090685256 = score(doc=701,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.0032381255 = product of:
          0.016190628 = sum of:
            0.016190628 = weight(_text_:28 in 701) [ClassicSimilarity], result of:
              0.016190628 = score(doc=701,freq=2.0), product of:
                0.10226833 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.028548526 = queryNorm
                0.15831517 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.2 = coord(1/5)
      0.5833333 = coord(7/12)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Date
    31. 3.2013 15:20:28
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  5. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.15
    0.14712663 = product of:
      0.3531039 = sum of:
        0.1491029 = weight(_text_:grenzen in 1496) [ClassicSimilarity], result of:
          0.1491029 = score(doc=1496,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.8988097 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.022033952 = weight(_text_:der in 1496) [ClassicSimilarity], result of:
          0.022033952 = score(doc=1496,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.1491029 = weight(_text_:grenzen in 1496) [ClassicSimilarity], result of:
          0.1491029 = score(doc=1496,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.8988097 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.022033952 = weight(_text_:der in 1496) [ClassicSimilarity], result of:
          0.022033952 = score(doc=1496,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 1496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1496)
        0.010830207 = product of:
          0.054151032 = sum of:
            0.054151032 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.054151032 = score(doc=1496,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Date
    22. 7.1998 18:23:25
  6. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.14
    0.13757505 = product of:
      0.41272512 = sum of:
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13602787 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13602787 = score(doc=563,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.023207584 = score(doc=563,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.33333334 = coord(4/12)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  7. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.13
    0.13429402 = product of:
      0.40288204 = sum of:
        0.01813705 = product of:
          0.090685256 = sum of:
            0.090685256 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.090685256 = score(doc=5820,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.2 = coord(1/5)
        0.12824832 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12824832 = score(doc=5820,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12824832 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12824832 = score(doc=5820,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12824832 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12824832 = score(doc=5820,freq=4.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.33333334 = coord(4/12)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  8. Walther, R.: Möglichkeiten und Grenzen automatischer Klassifikationen von Web-Dokumenten (2001) 0.13
    0.1321216 = product of:
      0.31709182 = sum of:
        0.105431676 = weight(_text_:grenzen in 1562) [ClassicSimilarity], result of:
          0.105431676 = score(doc=1562,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.63555443 = fieldWeight in 1562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.026985971 = weight(_text_:der in 1562) [ClassicSimilarity], result of:
          0.026985971 = score(doc=1562,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4231716 = fieldWeight in 1562, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.105431676 = weight(_text_:grenzen in 1562) [ClassicSimilarity], result of:
          0.105431676 = score(doc=1562,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.63555443 = fieldWeight in 1562, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.026985971 = weight(_text_:der in 1562) [ClassicSimilarity], result of:
          0.026985971 = score(doc=1562,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4231716 = fieldWeight in 1562, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
        0.05225653 = weight(_text_:forschung in 1562) [ClassicSimilarity], result of:
          0.05225653 = score(doc=1562,freq=2.0), product of:
            0.13888668 = queryWeight, product of:
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.028548526 = queryNorm
            0.376253 = fieldWeight in 1562, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8649335 = idf(docFreq=926, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1562)
      0.41666666 = coord(5/12)
    
    Abstract
    Automatische Klassifikationen von Web- und andern Textdokumenten ermöglichen es, betriebsinterne und externe Informationen geordnet zugänglich zu machen. Die Forschung zur automatischen Klassifikation hat sich in den letzten Jahren intensiviert. Das Resultat sind verschiedenen Methoden, die heute in der Praxis einzeln oder kombiniert für die Klassifikation im Einsatz sind. In der vorliegenden Lizenziatsarbeit werden neben allgemeinen Grundsätzen einige Methoden zur automatischen Klassifikation genauer betrachtet und ihre Möglichkeiten und Grenzen erörtert. Daneben erfolgt die Präsentation der Resultate aus einer Umfrage bei Anbieterrfirmen von Softwarelösungen zur automatische Klassifikation von Text-Dokumenten. Die Ausführungen dienen der myax internet AG als Basis, ein eigenes Klassifikations-Produkt zu entwickeln
    Footnote
    Lizenziatsarbeit an der Rechts- und Wirtschaftswissenschaftlichen Fakultät der Universität Bern, Institut für Wirtschaftsinformatik (Prof. G. Knolmayer)
  9. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.12
    0.12091368 = product of:
      0.36274102 = sum of:
        0.022671314 = product of:
          0.11335657 = sum of:
            0.11335657 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.11335657 = score(doc=4997,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.2 = coord(1/5)
        0.11335657 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4997,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11335657 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4997,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11335657 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11335657 = score(doc=4997,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.33333334 = coord(4/12)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  10. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.12
    0.12091368 = product of:
      0.36274102 = sum of:
        0.022671314 = product of:
          0.11335657 = sum of:
            0.11335657 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.11335657 = score(doc=855,freq=2.0), product of:
                0.24203472 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028548526 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.2 = coord(1/5)
        0.11335657 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11335657 = score(doc=855,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11335657 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11335657 = score(doc=855,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11335657 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11335657 = score(doc=855,freq=2.0), product of:
            0.24203472 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028548526 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.33333334 = coord(4/12)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  11. Salmon, F.: ¬Der Karlsruher virtuelle Katalog : Möglichkeiten und Grenzen (1998) 0.11
    0.11409124 = product of:
      0.3422737 = sum of:
        0.1491029 = weight(_text_:grenzen in 1224) [ClassicSimilarity], result of:
          0.1491029 = score(doc=1224,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.8988097 = fieldWeight in 1224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.109375 = fieldNorm(doc=1224)
        0.022033952 = weight(_text_:der in 1224) [ClassicSimilarity], result of:
          0.022033952 = score(doc=1224,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 1224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1224)
        0.1491029 = weight(_text_:grenzen in 1224) [ClassicSimilarity], result of:
          0.1491029 = score(doc=1224,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.8988097 = fieldWeight in 1224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.109375 = fieldNorm(doc=1224)
        0.022033952 = weight(_text_:der in 1224) [ClassicSimilarity], result of:
          0.022033952 = score(doc=1224,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.34551817 = fieldWeight in 1224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=1224)
      0.33333334 = coord(4/12)
    
  12. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.11
    0.1070636 = product of:
      0.25695264 = sum of:
        0.08520166 = weight(_text_:grenzen in 1409) [ClassicSimilarity], result of:
          0.08520166 = score(doc=1409,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 1409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.030841108 = weight(_text_:der in 1409) [ClassicSimilarity], result of:
          0.030841108 = score(doc=1409,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4836247 = fieldWeight in 1409, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.08520166 = weight(_text_:grenzen in 1409) [ClassicSimilarity], result of:
          0.08520166 = score(doc=1409,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.51360554 = fieldWeight in 1409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.030841108 = weight(_text_:der in 1409) [ClassicSimilarity], result of:
          0.030841108 = score(doc=1409,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.4836247 = fieldWeight in 1409, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1409)
        0.024867112 = product of:
          0.06216778 = sum of:
            0.031224333 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.031224333 = score(doc=1409,freq=2.0), product of:
                0.10042479 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028548526 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.030943448 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.030943448 = score(doc=1409,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.4 = coord(2/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  13. Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998) 0.10
    0.09779248 = product of:
      0.29337743 = sum of:
        0.12780248 = weight(_text_:grenzen in 4272) [ClassicSimilarity], result of:
          0.12780248 = score(doc=4272,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.7704083 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.018886246 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4272,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.12780248 = weight(_text_:grenzen in 4272) [ClassicSimilarity], result of:
          0.12780248 = score(doc=4272,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.7704083 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
        0.018886246 = weight(_text_:der in 4272) [ClassicSimilarity], result of:
          0.018886246 = score(doc=4272,freq=2.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.29615843 = fieldWeight in 4272, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=4272)
      0.33333334 = coord(4/12)
    
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
  14. Lorenz, S.: Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung (2006) 0.08
    0.0787928 = product of:
      0.18910272 = sum of:
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.06390124 = weight(_text_:grenzen in 1746) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1746,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1746, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.028329367 = weight(_text_:der in 1746) [ClassicSimilarity], result of:
          0.028329367 = score(doc=1746,freq=18.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.44423765 = fieldWeight in 1746, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1746)
        0.004641517 = product of:
          0.023207584 = sum of:
            0.023207584 = weight(_text_:22 in 1746) [ClassicSimilarity], result of:
              0.023207584 = score(doc=1746,freq=2.0), product of:
                0.09997207 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028548526 = queryNorm
                0.23214069 = fieldWeight in 1746, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1746)
          0.2 = coord(1/5)
      0.41666666 = coord(5/12)
    
    Abstract
    Im Rahmen dieser Arbeit wird eine Vorgehensweise entwickelt, die die Fixierung auf das Wort und die damit verbundenen Schwächen überwindet. Sie gestattet die Extraktion von Informationen anhand der repräsentierten Begriffe und bildet damit die Basis einer inhaltlichen Texterschließung. Die anschließende prototypische Realisierung dient dazu, die Konzeption zu überprüfen sowie ihre Möglichkeiten und Grenzen abzuschätzen und zu bewerten. Arbeiten zum Information Extraction widmen sich fast ausschließlich dem Englischen, wobei insbesondere im Bereich der Named Entities sehr gute Ergebnisse erzielt werden. Deutlich schlechter sehen die Resultate für weniger regelmäßige Sprachen wie beispielsweise das Deutsche aus. Aus diesem Grund sowie praktischen Erwägungen wie insbesondere der Vertrautheit des Autors damit, soll diese Sprache primär Gegenstand der Untersuchungen sein. Die Lösung von einer engen Termorientierung bei gleichzeitiger Betonung der repräsentierten Begriffe legt nahe, dass nicht nur die verwendeten Worte sekundär werden sondern auch die verwendete Sprache. Um den Rahmen dieser Arbeit nicht zu sprengen wird bei der Untersuchung dieses Punktes das Augenmerk vor allem auf die mit unterschiedlichen Sprachen verbundenen Schwierigkeiten und Besonderheiten gelegt.
    Content
    Dissertation an der Universität Trier - Fachbereich IV - zur Erlangung der Würde eines Doktors der Wirtschafts- und Sozialwissenschaften. Vgl.: http://ubt.opus.hbz-nrw.de/volltexte/2006/377/pdf/LorenzSaschaDiss.pdf.
    Date
    22. 3.2015 9:17:30
  15. Mittelbach, J.; Probst, M.: Möglichkeiten und Grenzen maschineller Indexierung in der Sacherschließung : Strategien für das Bibliothekssystem der Freien Universität Berlin (2006) 0.07
    0.06760517 = product of:
      0.2028155 = sum of:
        0.07530834 = weight(_text_:grenzen in 1411) [ClassicSimilarity], result of:
          0.07530834 = score(doc=1411,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.45396745 = fieldWeight in 1411, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.026099412 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.026099412 = score(doc=1411,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.07530834 = weight(_text_:grenzen in 1411) [ClassicSimilarity], result of:
          0.07530834 = score(doc=1411,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.45396745 = fieldWeight in 1411, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
        0.026099412 = weight(_text_:der in 1411) [ClassicSimilarity], result of:
          0.026099412 = score(doc=1411,freq=22.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40926933 = fieldWeight in 1411, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1411)
      0.33333334 = coord(4/12)
    
    Abstract
    Automatische Indexierung wird zunehmend als sinnvolle Möglichkeit erkannt, Daten für Informationsretrievalsysteme zu erzeugen und somit die Auffindbarkeit von Do-kumenten zu erhöhen. Die dafür geeigneten Methoden sind seit geraumer Zeit bekannt und umfassen statistische bzw. computerlinguistische Sprachanalysetechniken, die im Gegensatz zur gebräuchlichen Freitextinvertierung entscheidende Vor-teile hinsichtlich des Retrievals bieten. So bilden erst die Wortformenreduzierung und die semantische Zerlegung sowie die Gewichtung der ermittelten Indexterme die Grundlagen für die gezielte sachliche Suche im Online-Katalog. Entsprechende Ver-fahren, die sich für Bibliotheken eignen, stehen seit Mitte der neunziger Jahre auch für den praktischen Einsatz bereit und werden - nicht zuletzt aufgrund steigender Akzeptanz - ständig weiterentwickelt. Dabei geht es nicht nur um die Steigerung der allgemeinen Leistungsfähigkeit von maschinellen Indexierungssystemen, sondern auch um ihre Fähigkeit, die im Bibliothekswesen verfügbare, sehr heterogene Daten-grundlage optimal zu nutzen. Wichtige Kriterien sind zudem eine vertretbare Fehler-quote, die Integrierbarkeit in die Geschäftsgänge und die Darstellbarkeit der anfal-lenden Datenmengen in entsprechenden Datenrepräsentationsmodellen. Im Fokus der Untersuchung stehen die allgemeine Betrachtung der Vor- und Nachteile der beiden gängigen Indexierungssysteme MILOS und intelligentCAPTURE sowie die Möglichkeiten und Grenzen ihres Einsatzes im Bibliothekssystem der Freien Universität Berlin. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h183/
  16. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.06
    0.05802138 = product of:
      0.17406414 = sum of:
        0.06390124 = weight(_text_:grenzen in 1410) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1410,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
        0.023130832 = weight(_text_:der in 1410) [ClassicSimilarity], result of:
          0.023130832 = score(doc=1410,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.36271852 = fieldWeight in 1410, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
        0.06390124 = weight(_text_:grenzen in 1410) [ClassicSimilarity], result of:
          0.06390124 = score(doc=1410,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.38520414 = fieldWeight in 1410, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
        0.023130832 = weight(_text_:der in 1410) [ClassicSimilarity], result of:
          0.023130832 = score(doc=1410,freq=12.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.36271852 = fieldWeight in 1410, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1410)
      0.33333334 = coord(4/12)
    
    Abstract
    In der vorliegenden Arbeit werden die Möglichkeiten für eine Automatisierung des Klassifizierens von Online Dokumenten evaluiert und ein mögliches Verfahren prototypisch implementiert. Dabei werden Verfahren der Terminologieextraktion angewandt, um die Sinnträger der Texte zu ermitteln. Klassifikationen, die im Allg. nur wenige weiterführende Informationen enthalten, sollen über einen Mapping Mechanismus auf die das Dokument beschreibenden Terme angewandt werden. Im Ansatz wird bereits sichtbar, dass es keine rein automatische Klassifikation geben kann, da es immer einen Bruch zwischen den intellektuell erstellten Klassifikationen und den aus den Texten generierten Informationen geben wird. Es wird ein semiautomatisches Verfahren vorgestellt, das durch Anwenderaktionen lernt und zu einer sukzessiven Automatisierung führen kann. Die Ergebnisse der semiautomatischen Klassifizierung werden mit denen einer manuellen verglichen. Im Anschluss wird ein Ausblick auf Möglichkeiten und Grenzen der automatischen Klassifikation gegeben.
  17. Schäpers, K.: Umfang und Grenzen des Informationsdienstes in Öffentlichen Bibliotheken : Empfehlungen und Diskussionen (1991) 0.06
    0.056801107 = product of:
      0.34080663 = sum of:
        0.17040332 = weight(_text_:grenzen in 3725) [ClassicSimilarity], result of:
          0.17040332 = score(doc=3725,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            1.0272111 = fieldWeight in 3725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.125 = fieldNorm(doc=3725)
        0.17040332 = weight(_text_:grenzen in 3725) [ClassicSimilarity], result of:
          0.17040332 = score(doc=3725,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            1.0272111 = fieldWeight in 3725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.125 = fieldNorm(doc=3725)
      0.16666667 = coord(2/12)
    
  18. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.06
    0.0551301 = product of:
      0.1653903 = sum of:
        0.05325104 = weight(_text_:grenzen in 802) [ClassicSimilarity], result of:
          0.05325104 = score(doc=802,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.029444108 = weight(_text_:der in 802) [ClassicSimilarity], result of:
          0.029444108 = score(doc=802,freq=28.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.46171808 = fieldWeight in 802, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.05325104 = weight(_text_:grenzen in 802) [ClassicSimilarity], result of:
          0.05325104 = score(doc=802,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.32100347 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.029444108 = weight(_text_:der in 802) [ClassicSimilarity], result of:
          0.029444108 = score(doc=802,freq=28.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.46171808 = fieldWeight in 802, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
      0.33333334 = coord(4/12)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
  19. Ammann, A.: Klassifikation dynamischer Wissensräume : multifaktorielle Wechselbeziehungen zur Generierung und Gestaltung konstellativer dynamischer und mehrdimensionaler Wissensräume mit einem Fokus der Anwendung in der Zahn-, Mund- und Kieferheilkunde am Beispiel der enossalen Implantologie (2012) 0.05
    0.050764233 = product of:
      0.1522927 = sum of:
        0.045185003 = weight(_text_:grenzen in 1751) [ClassicSimilarity], result of:
          0.045185003 = score(doc=1751,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 1751, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.030961348 = weight(_text_:der in 1751) [ClassicSimilarity], result of:
          0.030961348 = score(doc=1751,freq=86.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.48551017 = fieldWeight in 1751, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.045185003 = weight(_text_:grenzen in 1751) [ClassicSimilarity], result of:
          0.045185003 = score(doc=1751,freq=4.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.27238047 = fieldWeight in 1751, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
        0.030961348 = weight(_text_:der in 1751) [ClassicSimilarity], result of:
          0.030961348 = score(doc=1751,freq=86.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.48551017 = fieldWeight in 1751, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1751)
      0.33333334 = coord(4/12)
    
    Abstract
    Das Thema der Wissensklassifikationen begleitet uns über alle vier epochalen Konvergenz-Zyklen im Wissenstransfer von der schriftlichen, der analogen über die digitalen bis zur künstlichen neuronalen Welt als Ordnungsprinzipien für eine Orientierung in unserer Wissenslandschaft. Die Explosion des Verfügungswissens wird geprägt durch eine immer weitere Fortschreitung zur Ausdifferenzierung der Wissenschaftsdisziplinen, die digitale Speicherung des "Weltwissens" mit ihren Web-Technologien und dem Ubiquitous Computing als Bestandteil des "Internets der Dinge". Die klassischen Konzepte der Wissensorganisation durch ihre Struktur der Dendrogramme und der orthogonalen Koordinatensysteme werden den Anforderungen für eine aufgaben- und problemorientierten Wissensnavigation nicht mehr gerecht, um die Qualität des Wissens aus der Quantität so zu selektieren, dass damit eine kompetente Unterstützung der Entscheidungsprozesse gewährleistet werden kann. Die Berechnung semantischer Relationen durch statistische, hierarchischagglomerative Algorithmen u.a. mit Cluster- und Vektorenmodellen stoßen an ihre Grenzen in der Modellierung von Wissensräumen.
    Eine Neuorientierung der Wissensarchitektur bei der Generierung und Gestaltung der konstellativen dynamischen und mehrdimensionalen Wissensräume wird eine zentrale Herausforderung in der digitalen Wissenswelt werden. Die <Einheit des Wissens> wird dabei nicht mehr als universeller interdisziplinärer Wissensraum mit dem Problem <lost within the space of knowledge> verstanden, sondern assistierende Netz- Avatare konfigurieren den erforderlichen Wissensraum durch die Orientierung des konstellativen Nutzerprofils selbstständig. Es wäre jedoch vermessen, hier den Anspruch eines neuen Ordnungsprinzips des Wissens zu erheben. Mit dieser Arbeit können aber Impulse für einen "semantischen Code des Wissens" gegeben werden, wie durch eine Klassifikation der Wissensräume ein neues Konzept zur "Einheit des Wissens" in einem Raum-Zeit-Gefüge entstehen kann. Dabei werden wir uns auch der fundamentalen Frage stellen müssen, wie sich eine neue Wissenskultur definiert, in der das Jahrtausende währende Kulturerbe der Schriftlichkeit des Wissens sich zu einer Flüchtigkeit des Wissens als Gebrauchsgut hin entwickelt. Es ist die gesellschaftliche Position der genuinen intellektuellen Leistung des Urhebers und Schöpfers einer Schriftlichkeit, die er an die "Wisdom of Community" abgibt. Parallel hierzu finden auch Divergenz-Prozesse statt, in der sich die Schriftlichkeit von dem Medium löst, um selbst laufend neue Konvergenz- Prozesse einzugehen, in denen nicht mehr der Inhalt das Medium bestimmt, sondern das Medium die charakteristischen Merkmale der Inhalte definiert.
    Eine Herausforderung dieser Arbeit lag in der Struktur der Wissensordnung zu dieser Thematik. Dabei sei erlaubt, mit dem erforderlichen Respekt sich auch in andere Fachgebiete hineinzuwagen, um diese Thematik in den historischen Kontext zur Entwicklung der Ordnungsprinzipien des Wissens zu stellen. Nur dadurch wird ersichtlich, wie diese Fragestellung in den jeweiligen Epochen sich immer wieder aufs Neue ergeben hat, altes und neues Wissen zu ordnen, um damit den Wissenstransfer zu fördern. Neue Erkenntnisse zu gewinnen bedeutet auch alte Erkenntnisse verstehen zu lernen. Da Wissen keine Grenzen hat, ist diese komplexe Thematik auch nicht fakultativ behandelt, sondern wurde interdisziplinär im Rahmen der Möglichkeiten in den jeweiligen Kontext gestellt. Für diese Arbeit ist die Methodik des deduktiven Prinzips der Wissensordnung gewählt worden.
    Im Teil A wird, neben dem menschlichen Urbedürfnis mit dem Streben nach dem Wissen, auf die vier epochalen Konvergenz-Zyklen mit ihren Kompetenzprofilen der Wissensordnungen im Wissenstransfer eingegangen. Insbesondere die Verschiebungen der Wissenschaftssprachen nehmen dabei einen erheblichen Einfluss auf die Abgrenzung der Klassifikationen zum impliziten, visuellen und explizitem Wissen. Daher werden den Äquivalenztypen im expliziten Wissensraum einer besonderen Aufmerksamkeit gewidmet, denn in unserer multilingualen Wissenslandschaft entstehen im Wissenstransfer zum Verfügungs-, Orientierungs- und Handlungswissen Artefakte, die auch auf die Gestaltung der Lernziel-Taxonomien einen Einfluss haben. Im Teil B werden zunächst die Arten, Merkmale und Klassifikationskonzepte des Wissens behandelt. Bei dem Versuch einer neuen Wissensordnung wird das kartesische / geodätische Koordinatensystem in ein Raum-Zeit-Gefüge gestellt, aus dem sich elf Wissensräume herauskristallisiert haben, die sowohl in ihren Definitionen, den damit verbundenen Ableitungen und Beispielen und einer Verortung im Wissensraum klassifiziert werden. Im Projekt <K-Space Visual Library in Dental Medicine> wird die problem- und aufgabenorientierte Navigation in den jeweiligen Wissensräumen erläutert und in der Diskussion die noch bevorstehenden Konvergenz-Forderungen der meist noch bestehenden proprietären digitalen Technologien und Programme skizziert, um diese bei der Modellierung der Wissensräume mit einzubeziehen.
    Im Teil C erfolgt zunächst auszugsweise die Beschreibung bestehender Dokumenten-Analysesysteme für die Bildung von aufgaben- und problemorientierten Wissensräumen, um dann in der Ableitung die Wissensmodelle nach dem Molekül- und Legoprinzip vorzustellen. Mit einer Diskussion zur gesamten Thematik und den Ergebnissen mit den sich aus der Arbeit ergebenden Thesen schließt diese Arbeit, die durch einen Rückblick, einen Einblick und einen Ausblick den Diskurs um die Genese einer neuen Ordnung des Wissens ein wenig beleben kann. Es ist dabei verständlich, dass diese Arbeit eine besondere Beziehung zur Zahn-, Mund- und Kieferheilkunde hat, da es die berufliche Wissenswelt ist, in der ich lebe.
    Content
    Dissertation zur Erlangung des Grades eines Doktors der Humanbiologie Doctor rerum biologicarum humanarum Vgl.: https://www.deutsche-digitale-bibliothek.de/binary/SKXBHJSDCMK7JOFRAVUCAMAU6UL5P5IR/full/1.pdf.
  20. Bachfeld, S.: Möglichkeiten und Grenzen linguistischer Verfahren der automatischen Indexierung : Entwurf einer Simulation für den Einsatz im Grundstudium (2003) 0.05
    0.04570499 = product of:
      0.13711497 = sum of:
        0.04260083 = weight(_text_:grenzen in 2827) [ClassicSimilarity], result of:
          0.04260083 = score(doc=2827,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02595666 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.02595666 = score(doc=2827,freq=34.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.04260083 = weight(_text_:grenzen in 2827) [ClassicSimilarity], result of:
          0.04260083 = score(doc=2827,freq=2.0), product of:
            0.1658893 = queryWeight, product of:
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.028548526 = queryNorm
            0.25680277 = fieldWeight in 2827, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8107834 = idf(docFreq=359, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
        0.02595666 = weight(_text_:der in 2827) [ClassicSimilarity], result of:
          0.02595666 = score(doc=2827,freq=34.0), product of:
            0.06377075 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.028548526 = queryNorm
            0.40703082 = fieldWeight in 2827, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2827)
      0.33333334 = coord(4/12)
    
    Abstract
    Die Arbeit entwirft ein Konzept für eine Simulation, die als Teil eines ELearning-Moduls die Probleme der automatischen Freitextindexierung und linguistische Verfahren zur Verbesserung der Indexierungsergebnisse veranschaulichen soll. Zielgruppe der Simulation sind die im Studierenden des Fachbereichs Bibliothek und Information der HAW Hamburg, die sich im Grundstudium befinden. Es wird ein inhaltliches Konzept dafür entwickelt, wie die Simulation Vor- und Nachteile regelbasierter und wörterbuchbasierte Indexierungsverfahren für das Grundstudium darstellen kann. Ziel ist zu zeigen, dass regelbasierte Verfahren in einer stark flektierenden und kompositareichen Sprache wie dem Deutschen zu zahlreichen Indexierungsfehlern führen können und dass wörterbuchbasierte Verfahren bessere Indexate liefern. Im zweiten Teil der Arbeit wird eine Informationsarchitektur für die Simulation entworfen und ein Prototyp programmiert, der eine Freitextindexierung und darauf aufbauend ein regelbasiertes Reduktionsverfahren darstellt. Ziel dabei ist insbesondere zu zeigen, dass regelbasierte Indexierungsverfahren für das Deutsche keine befriedigenden Ergebnisse erzielen, und dass wörterbuchbasierte Verfahren im Deutschen zu bevorzugen sind. Vor diesem Hintergrund wird im zweiten Teil der Arbeit ein Prototyp für die Simulation konzipiert, die elektronische Volltexte zunächst nach der Freitextmethode und danach mit linguistischen Verfahren indexiert. Es wird eine Informationsarchitektur entwickelt, die nicht nur anstrebt, der Zielgruppe gerecht zu werden, sondern auch die Vor- und Nachteile der linguistischen Indexierungsverfahren möglichst deutlich zu zeigen. Für die Freitextindexierung als einfachste Form der automatischen Indexierung und für das regelbasierte Verfahren wird auch schon der Programmcode geschrieben. Für die regelbasierte Wortformenreduktion greift die Autorin auf ein schon bestehendes Programm zurück, das Cornelie Ahlfeld 1995 im Rahmen ihrer Diplomarbeit entwickelt hat. Die Autorin versucht, dieses Programm durch eine Präsentation der Indexierungsergebnisse zu ergänzen, die es für den Einsatz in der Lehre nützlich machen.
    Content
    Vgl. auch: http://munin.bui.haw-hamburg.de/amoll/freitext/index.php (Freitextindexierung ohne Bearbeitung der Indexate) http://munin.bui.haw-hamburg.de/amoll/stemming/index.pbp (Stemming) http://munin.bui.haw-hamburg.de/amoll/woerterbuch/index.php (wörterbuchbasierte Indexierung)
    Footnote
    Hausarbeit zur Diplomprüfung an der HAW Hamburg, Fachbereich Bibliothek und Information

Years

Languages

  • d 480
  • e 19
  • a 1
  • f 1
  • hu 1
  • More… Less…

Types

Themes

Subjects

Classifications