Search (575 results, page 1 of 29)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.48
    0.475795 = product of:
      1.2687867 = sum of:
        0.09496395 = product of:
          0.28489184 = sum of:
            0.28489184 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.28489184 = score(doc=973,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.28489184 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28489184 = score(doc=973,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28489184 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28489184 = score(doc=973,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.03425535 = weight(_text_:der in 973) [ClassicSimilarity], result of:
          0.03425535 = score(doc=973,freq=6.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.5129615 = fieldWeight in 973, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28489184 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28489184 = score(doc=973,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.28489184 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.28489184 = score(doc=973,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.375 = coord(6/16)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
    Footnote
    Inauguraldissertation zur Erlangung der Doktorwürde Vorgelegt der Philosophischen Fakultät I der Humboldt-Universität zu Berlin.
  2. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.24
    0.24068263 = product of:
      0.55013174 = sum of:
        0.039568312 = product of:
          0.11870494 = sum of:
            0.11870494 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.11870494 = score(doc=1000,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.11870494 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11870494 = score(doc=1000,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11870494 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11870494 = score(doc=1000,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.028546121 = weight(_text_:der in 1000) [ClassicSimilarity], result of:
          0.028546121 = score(doc=1000,freq=24.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.42746788 = fieldWeight in 1000, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11870494 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11870494 = score(doc=1000,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.11870494 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.11870494 = score(doc=1000,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.0071975808 = weight(_text_:information in 1000) [ClassicSimilarity], result of:
          0.0071975808 = score(doc=1000,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13714671 = fieldWeight in 1000, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4375 = coord(7/16)
    
    Abstract
    Vorgestellt wird die Konstruktion eines thematisch geordneten Thesaurus auf Basis der Sachschlagwörter der Gemeinsamen Normdatei (GND) unter Nutzung der darin enthaltenen DDC-Notationen. Oberste Ordnungsebene dieses Thesaurus werden die DDC-Sachgruppen der Deutschen Nationalbibliothek. Die Konstruktion des Thesaurus erfolgt regelbasiert unter der Nutzung von Linked Data Prinzipien in einem SPARQL Prozessor. Der Thesaurus dient der automatisierten Gewinnung von Metadaten aus wissenschaftlichen Publikationen mittels eines computerlinguistischen Extraktors. Hierzu werden digitale Volltexte verarbeitet. Dieser ermittelt die gefundenen Schlagwörter über Vergleich der Zeichenfolgen Benennungen im Thesaurus, ordnet die Treffer nach Relevanz im Text und gibt die zugeordne-ten Sachgruppen rangordnend zurück. Die grundlegende Annahme dabei ist, dass die gesuchte Sachgruppe unter den oberen Rängen zurückgegeben wird. In einem dreistufigen Verfahren wird die Leistungsfähigkeit des Verfahrens validiert. Hierzu wird zunächst anhand von Metadaten und Erkenntnissen einer Kurzautopsie ein Goldstandard aus Dokumenten erstellt, die im Online-Katalog der DNB abrufbar sind. Die Dokumente vertei-len sich über 14 der Sachgruppen mit einer Losgröße von jeweils 50 Dokumenten. Sämtliche Dokumente werden mit dem Extraktor erschlossen und die Ergebnisse der Kategorisierung do-kumentiert. Schließlich wird die sich daraus ergebende Retrievalleistung sowohl für eine harte (binäre) Kategorisierung als auch eine rangordnende Rückgabe der Sachgruppen beurteilt.
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
    Imprint
    Wien / Library and Information Studies : Universität
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.24
    0.23862138 = product of:
      0.5454203 = sum of:
        0.039568312 = product of:
          0.11870494 = sum of:
            0.11870494 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.11870494 = score(doc=4997,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.11870494 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4997,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11870494 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4997,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11870494 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4997,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11870494 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4997,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.0071975808 = weight(_text_:information in 4997) [ClassicSimilarity], result of:
          0.0071975808 = score(doc=4997,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13714671 = fieldWeight in 4997, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.023834616 = product of:
          0.047669232 = sum of:
            0.047669232 = weight(_text_:engineering in 4997) [ClassicSimilarity], result of:
              0.047669232 = score(doc=4997,freq=2.0), product of:
                0.16061439 = queryWeight, product of:
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.029895496 = queryNorm
                0.29679304 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.372528 = idf(docFreq=557, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.4375 = coord(7/16)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
    Imprint
    Trento : University / Department of information engineering and computer science
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.22
    0.22051588 = product of:
      0.5880423 = sum of:
        0.14244592 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14244592 = score(doc=563,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14244592 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14244592 = score(doc=563,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14244592 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14244592 = score(doc=563,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.14244592 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.14244592 = score(doc=563,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.00610735 = weight(_text_:information in 563) [ClassicSimilarity], result of:
          0.00610735 = score(doc=563,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.116372846 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.01215128 = product of:
          0.02430256 = sum of:
            0.02430256 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.02430256 = score(doc=563,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.375 = coord(6/16)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.22
    0.21763802 = product of:
      0.58036804 = sum of:
        0.031654652 = product of:
          0.09496395 = sum of:
            0.09496395 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.09496395 = score(doc=5820,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.13429931 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13429931 = score(doc=5820,freq=4.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13429931 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13429931 = score(doc=5820,freq=4.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13429931 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13429931 = score(doc=5820,freq=4.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.13429931 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.13429931 = score(doc=5820,freq=4.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.011516129 = weight(_text_:information in 5820) [ClassicSimilarity], result of:
          0.011516129 = score(doc=5820,freq=16.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.21943474 = fieldWeight in 5820, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.375 = coord(6/16)
    
    Abstract
    The successes of information retrieval (IR) in recent decades were built upon bag-of-words representations. Effective as it is, bag-of-words is only a shallow text understanding; there is a limited amount of information for document ranking in the word space. This dissertation goes beyond words and builds knowledge based text representations, which embed the external and carefully curated information from knowledge bases, and provide richer and structured evidence for more advanced information retrieval systems. This thesis research first builds query representations with entities associated with the query. Entities' descriptions are used by query expansion techniques that enrich the query with explanation terms. Then we present a general framework that represents a query with entities that appear in the query, are retrieved by the query, or frequently show up in the top retrieved documents. A latent space model is developed to jointly learn the connections from query to entities and the ranking of documents, modeling the external evidence from knowledge bases and internal ranking features cooperatively. To further improve the quality of relevant entities, a defining factor of our query representations, we introduce learning to rank to entity search and retrieve better entities from knowledge bases. In the document representation part, this thesis research also moves one step forward with a bag-of-entities model, in which documents are represented by their automatic entity annotations, and the ranking is performed in the entity space.
    This proposal includes plans to improve the quality of relevant entities with a co-learning framework that learns from both entity labels and document labels. We also plan to develop a hybrid ranking system that combines word based and entity based representations together with their uncertainties considered. At last, we plan to enrich the text representations with connections between entities. We propose several ways to infer entity graph representations for texts, and to rank documents using their structure representations. This dissertation overcomes the limitation of word based representations with external and carefully curated information from knowledge bases. We believe this thesis research is a solid start towards the new generation of intelligent, semantic, and structured information retrieval.
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  6. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.20
    0.20314458 = product of:
      0.5417189 = sum of:
        0.039568312 = product of:
          0.11870494 = sum of:
            0.11870494 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.11870494 = score(doc=4388,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.11870494 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4388,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11870494 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4388,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.027330829 = weight(_text_:der in 4388) [ClassicSimilarity], result of:
          0.027330829 = score(doc=4388,freq=22.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.40926933 = fieldWeight in 4388, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11870494 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4388,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.11870494 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.11870494 = score(doc=4388,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.375 = coord(6/16)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Content
    Redigierte Version der Magisterarbeit, Karlsruhe, KIT, Inst. für Philosophie, 2012.
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  7. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.19
    0.19114815 = product of:
      0.43691006 = sum of:
        0.031654652 = product of:
          0.09496395 = sum of:
            0.09496395 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.09496395 = score(doc=701,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.09496395 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09496395 = score(doc=701,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.09496395 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09496395 = score(doc=701,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.013184888 = weight(_text_:der in 701) [ClassicSimilarity], result of:
          0.013184888 = score(doc=701,freq=8.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.19743896 = fieldWeight in 701, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.09496395 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09496395 = score(doc=701,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.09496395 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.09496395 = score(doc=701,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.012214699 = weight(_text_:information in 701) [ClassicSimilarity], result of:
          0.012214699 = score(doc=701,freq=18.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.23274568 = fieldWeight in 701, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.4375 = coord(7/16)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Footnote
    Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften (Dr. rer. pol.) von der Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe genehmigte Dissertation.
    Imprint
    Karlsruhe : Fakultaet fuer Wirtschaftswissenschaften der Universitaet Fridericiana zu Karlsruhe
  8. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.16
    0.16074628 = product of:
      0.5143881 = sum of:
        0.039568312 = product of:
          0.11870494 = sum of:
            0.11870494 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.11870494 = score(doc=855,freq=2.0), product of:
                0.25345436 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029895496 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.11870494 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11870494 = score(doc=855,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11870494 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11870494 = score(doc=855,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11870494 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11870494 = score(doc=855,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.11870494 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.11870494 = score(doc=855,freq=2.0), product of:
            0.25345436 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.029895496 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.3125 = coord(5/16)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  9. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.09
    0.09466499 = product of:
      0.25243998 = sum of:
        0.03439793 = weight(_text_:informatik in 862) [ClassicSimilarity], result of:
          0.03439793 = score(doc=862,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.045769252 = weight(_text_:einzelne in 862) [ClassicSimilarity], result of:
          0.045769252 = score(doc=862,freq=2.0), product of:
            0.17595729 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.029895496 = queryNorm
            0.26011568 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.041184895 = weight(_text_:anwendungen in 862) [ClassicSimilarity], result of:
          0.041184895 = score(doc=862,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.24674514 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.02084714 = weight(_text_:der in 862) [ClassicSimilarity], result of:
          0.02084714 = score(doc=862,freq=20.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.3121784 = fieldWeight in 862, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.10616919 = weight(_text_:wirtschaftsinformatik in 862) [ClassicSimilarity], result of:
          0.10616919 = score(doc=862,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.47112525 = fieldWeight in 862, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
        0.0040715667 = weight(_text_:information in 862) [ClassicSimilarity], result of:
          0.0040715667 = score(doc=862,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.0775819 = fieldWeight in 862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
      0.375 = coord(6/16)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  10. Habermann, K.: Wissensrepräsentation im Rahmen von Wissensmanagement (1999) 0.09
    0.088021554 = product of:
      0.4694483 = sum of:
        0.37159216 = weight(_text_:wirtschaftsinformatik in 1515) [ClassicSimilarity], result of:
          0.37159216 = score(doc=1515,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            1.6489384 = fieldWeight in 1515, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.109375 = fieldNorm(doc=1515)
        0.083605655 = product of:
          0.16721131 = sum of:
            0.16721131 = weight(_text_:wissensmanagement in 1515) [ClassicSimilarity], result of:
              0.16721131 = score(doc=1515,freq=2.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.930136 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
        0.014250483 = weight(_text_:information in 1515) [ClassicSimilarity], result of:
          0.014250483 = score(doc=1515,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.27153665 = fieldWeight in 1515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.109375 = fieldNorm(doc=1515)
      0.1875 = coord(3/16)
    
    Footnote
    Diplomarbeit am Lehrstuhl für Wirtschaftsinformatik II des Instituts für Wirtschaftsinformatik
    Theme
    Information Resources Management
  11. Nagelschmidt, M.: Integration und Anwendung von "Semantic Web"-Technologien im betrieblichen Wissensmanagement (2012) 0.08
    0.08005804 = product of:
      0.2561857 = sum of:
        0.06080753 = weight(_text_:informatik in 11) [ClassicSimilarity], result of:
          0.06080753 = score(doc=11,freq=4.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.39863077 = fieldWeight in 11, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=11)
        0.02330781 = weight(_text_:der in 11) [ClassicSimilarity], result of:
          0.02330781 = score(doc=11,freq=16.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34902605 = fieldWeight in 11, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=11)
        0.09384119 = weight(_text_:wirtschaftsinformatik in 11) [ClassicSimilarity], result of:
          0.09384119 = score(doc=11,freq=2.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.4164198 = fieldWeight in 11, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.0390625 = fieldNorm(doc=11)
        0.07313971 = product of:
          0.14627942 = sum of:
            0.14627942 = weight(_text_:wissensmanagement in 11) [ClassicSimilarity], result of:
              0.14627942 = score(doc=11,freq=12.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.8136995 = fieldWeight in 11, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=11)
          0.5 = coord(1/2)
        0.005089458 = weight(_text_:information in 11) [ClassicSimilarity], result of:
          0.005089458 = score(doc=11,freq=2.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.09697737 = fieldWeight in 11, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=11)
      0.3125 = coord(5/16)
    
    Abstract
    Das Wissensmanagement ist ein Themenkomplex mit zahlreichen fachlichen Bezügen, insbesondere zur Wirtschaftsinformatik und der Management-, Personal- und Organisationslehre als Teilbereiche der Betriebswirtschaftslehre. In einem weiter gefassten Verständnis bestehen aber auch Bezüge zur Organisationspsychologie, zur Informatik und zur Informationswissenschaft. Von den Entwicklungen in diesen Bezugsdisziplinen können deshalb auch Impulse für die Konzepte, Methodiken und Technologien des Wissensmanagements ausgehen. Die aus der Informatik stammende Idee, das World Wide Web (WWW) zu einem semantischen Netz auszubauen, kann als eine solche impulsgebende Entwicklung gesehen werden. Im Verlauf der vergangenen Dekade hat diese Idee einen hinreichenden Reifegrad erreicht, so dass eine potenzielle Relevanz auch für das Wissensmanagement unterstellt werden darf. Im Rahmen dieser Arbeit soll anhand eines konkreten, konzeptionellen Ansatzes demonstriert werden, wie dieser technologische Impuls für das Wissensmanagement nutzenbringend kanalisiert werden kann. Ein derartiges Erkenntnisinteresse erfordert zunächst die Erarbeitung eines operationalen Verständnisses von Wissensmanagement, auf dem die weiteren Betrachtungen aufbauen können. Es werden außerdem die Architektur und die Funktionsweise eines "Semantic Web" sowie XML und die Ontologiesprachen RDF/RDFS und OWL als maßgebliche Werkzeuge für eine ontologiebasierte Wissensrepräsentation eingeführt. Anschließend wird zur Integration und Anwendung dieser semantischen Technologien in das Wissensmanagement ein Ansatz vorgestellt, der eine weitgehend automatisierte Wissensmodellierung und daran anschließende, semantische Informationserschließung der betrieblichen Datenbasis beschreibt. Zur Veranschaulichung wird dazu auf eine fiktive Beispielwelt aus der Fertigungsindustrie zurückgegriffen. Schließlich soll der Nutzen dieser Vorgehensweise durch Anwendungsszenarien des Information Retrieval (IR) im Kontext von Geschäftsprozessen illustriert werden.
  12. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.07
    0.06663053 = product of:
      0.21321768 = sum of:
        0.042997412 = weight(_text_:informatik in 867) [ClassicSimilarity], result of:
          0.042997412 = score(doc=867,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2818745 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.020185156 = weight(_text_:der in 867) [ClassicSimilarity], result of:
          0.020185156 = score(doc=867,freq=12.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.30226544 = fieldWeight in 867, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.13271147 = weight(_text_:wirtschaftsinformatik in 867) [ClassicSimilarity], result of:
          0.13271147 = score(doc=867,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.5889065 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.0071975808 = weight(_text_:information in 867) [ClassicSimilarity], result of:
          0.0071975808 = score(doc=867,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.13714671 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.010126068 = product of:
          0.020252137 = sum of:
            0.020252137 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.020252137 = score(doc=867,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.3125 = coord(5/16)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
    Pages
    22 S
  13. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.06
    0.06289444 = product of:
      0.25157776 = sum of:
        0.06080753 = weight(_text_:informatik in 802) [ClassicSimilarity], result of:
          0.06080753 = score(doc=802,freq=4.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.39863077 = fieldWeight in 802, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.030833334 = weight(_text_:der in 802) [ClassicSimilarity], result of:
          0.030833334 = score(doc=802,freq=28.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.46171808 = fieldWeight in 802, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.066095725 = weight(_text_:datenverarbeitung in 802) [ClassicSimilarity], result of:
          0.066095725 = score(doc=802,freq=2.0), product of:
            0.18912636 = queryWeight, product of:
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.029895496 = queryNorm
            0.34947917 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.326249 = idf(docFreq=214, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
        0.09384119 = weight(_text_:wirtschaftsinformatik in 802) [ClassicSimilarity], result of:
          0.09384119 = score(doc=802,freq=2.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.4164198 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
      0.25 = coord(4/16)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
    Content
    Diplomarbeit im Studiengang Wirtschaftsinformatik
    Imprint
    Ilmenau : Technische Universität / Fakultät für Informatik und Automatisierung / Institut für praktische Informatik und Medieninformatik
  14. Leyh, M.: ¬Das Google File System (2005) 0.06
    0.055169 = product of:
      0.220676 = sum of:
        0.03439793 = weight(_text_:informatik in 863) [ClassicSimilarity], result of:
          0.03439793 = score(doc=863,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.058244236 = weight(_text_:anwendungen in 863) [ClassicSimilarity], result of:
          0.058244236 = score(doc=863,freq=4.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.34895033 = fieldWeight in 863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.021864664 = weight(_text_:der in 863) [ClassicSimilarity], result of:
          0.021864664 = score(doc=863,freq=22.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.32741547 = fieldWeight in 863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
        0.10616919 = weight(_text_:wirtschaftsinformatik in 863) [ClassicSimilarity], result of:
          0.10616919 = score(doc=863,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.47112525 = fieldWeight in 863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=863)
      0.25 = coord(4/16)
    
    Abstract
    Die Bedeutung der Suchmaschine Google hat in den letzten Jahren sehr stark zuge-nommen. Durch die immer komplexer werdenden Googleapplikationen sowie die im-mer stärkere Nutzung der Suchmaschine ist die zu verwaltende Datenmenge in den letzten Jahren stark angewachsen. Dies war die Ursache für die Entwicklung neuer Konzepte, um eine konsistente Datenhaltung und -verwaltung sowie eine schnelle Da-tenrettung zu ermöglichen. Im Mittelpunkt dieser Entwicklung steht die Sicherung der Performance des Systems, das Milliarden von Dokumenten verwaltet und mehrere Tausende Treffer pro Suchanfrage nach Relevanz ordnet. Der Umfang und die Komple-xität des Systems stellen dabei sowohl besondere Herausforderungen an die einzuset-zende Hardware, als auch an die Konzepte der Datenverteilung und -sicherung. Eine neue Entwicklung ist dabei der Verzicht auf teure Spezialhardware. Alle Anwendungen laufen auf gewöhnlicher PC-Hardware und sind somit sehr wirtschaftlich im Vergleich zu teurerer Spezialhardware. Durch den Einsatz gewöhnlicher PC-Hardware sind Aus-fälle von Festplatten oder ganzer Server wesentlich wahrscheinlicher, es wird sogar mit dem Ausfall von Systemen gerechnet. Dass Anwendungen dennoch so zuverlässig und schnell funktionieren, liegt an der Struktur des von Google entwickelten Dateisystems. Das Google File Systems (kurz GFS) bietet eine hohe Fehlertoleranz, Fehler werden automatisch entdeckt und Wiederherstellungen automatisiert ausgeführt, so dass die Nachteile der Hardwarekonfiguration abgefangen werden können. Dieser Fehlertoleranz kommt bei multiplen Clustern mit Größen von bis zu 300 TB sowie mehreren hunderten Clientzugriffen sehr große Bedeutung zu. Eine weitere strukturelle Besonderheit des Google File Systems stellt die Verwaltung von Schreibzugriffen dar. Bestehende Dateien werden nicht durch schwer zu kontrollie-rende Schreiboperationen, sondern vielmehr durch leichter zu verwaltende "Append" Operationen erweitert. Es ist somit möglich, dass viele Nutzer gleichzeitig auf größere Dateien schreibend zugreifen, ohne dass eine ständige Synchronisation zwischen diesen Nutzern stattfinden muss. Die dadurch realisierten Vorteile bezüglich Performance, Verlässlichkeit und Verfüg-barkeit sowie die daraus resultierenden Anforderungen an das System sollen im Mittel-punkt dieser Arbeit stehen. Es soll ein Einblick in die Funktionsweisen und Komplexitä-ten des Google File Systems gegeben und weiterhin die strukturelle Umsetzung der Anforderungen aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/MichaelLeyh.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  15. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.05
    0.05404786 = product of:
      0.17295316 = sum of:
        0.03439793 = weight(_text_:informatik in 4031) [ClassicSimilarity], result of:
          0.03439793 = score(doc=4031,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.045769252 = weight(_text_:einzelne in 4031) [ClassicSimilarity], result of:
          0.045769252 = score(doc=4031,freq=2.0), product of:
            0.17595729 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.029895496 = queryNorm
            0.26011568 = fieldWeight in 4031, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.058244236 = weight(_text_:anwendungen in 4031) [ClassicSimilarity], result of:
          0.058244236 = score(doc=4031,freq=4.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.34895033 = fieldWeight in 4031, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.023769395 = weight(_text_:der in 4031) [ClassicSimilarity], result of:
          0.023769395 = score(doc=4031,freq=26.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.35593814 = fieldWeight in 4031, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
        0.010772353 = weight(_text_:information in 4031) [ClassicSimilarity], result of:
          0.010772353 = score(doc=4031,freq=14.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.20526241 = fieldWeight in 4031, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=4031)
      0.3125 = coord(5/16)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  16. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.05
    0.052973468 = product of:
      0.21189387 = sum of:
        0.042997412 = weight(_text_:informatik in 4333) [ClassicSimilarity], result of:
          0.042997412 = score(doc=4333,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2818745 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.026058923 = weight(_text_:der in 4333) [ClassicSimilarity], result of:
          0.026058923 = score(doc=4333,freq=20.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.390223 = fieldWeight in 4333, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.13271147 = weight(_text_:wirtschaftsinformatik in 4333) [ClassicSimilarity], result of:
          0.13271147 = score(doc=4333,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.5889065 = fieldWeight in 4333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.010126068 = product of:
          0.020252137 = sum of:
            0.020252137 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.020252137 = score(doc=4333,freq=2.0), product of:
                0.104688935 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029895496 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
    Pages
    22 S
  17. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.05
    0.04728028 = product of:
      0.18912113 = sum of:
        0.03439793 = weight(_text_:informatik in 861) [ClassicSimilarity], result of:
          0.03439793 = score(doc=861,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 861, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.024666667 = weight(_text_:der in 861) [ClassicSimilarity], result of:
          0.024666667 = score(doc=861,freq=28.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.36937445 = fieldWeight in 861, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.10616919 = weight(_text_:wirtschaftsinformatik in 861) [ClassicSimilarity], result of:
          0.10616919 = score(doc=861,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.47112525 = fieldWeight in 861, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.03125 = fieldNorm(doc=861)
        0.02388733 = product of:
          0.04777466 = sum of:
            0.04777466 = weight(_text_:wissensmanagement in 861) [ClassicSimilarity], result of:
              0.04777466 = score(doc=861,freq=2.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.26575315 = fieldWeight in 861, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.03125 = fieldNorm(doc=861)
          0.5 = coord(1/2)
      0.25 = coord(4/16)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  18. Fichtner, K.: Boyer-Moore Suchalgorithmus (2005) 0.04
    0.04407616 = product of:
      0.23507285 = sum of:
        0.051596895 = weight(_text_:informatik in 864) [ClassicSimilarity], result of:
          0.051596895 = score(doc=864,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.3382494 = fieldWeight in 864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=864)
        0.024222186 = weight(_text_:der in 864) [ClassicSimilarity], result of:
          0.024222186 = score(doc=864,freq=12.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.36271852 = fieldWeight in 864, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=864)
        0.15925378 = weight(_text_:wirtschaftsinformatik in 864) [ClassicSimilarity], result of:
          0.15925378 = score(doc=864,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.70668787 = fieldWeight in 864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.046875 = fieldNorm(doc=864)
      0.1875 = coord(3/16)
    
    Abstract
    Die Masse der Suchalgorithmen lässt sich in zwei grundlegend verschiedene Teilbereiche untergliedern. Auf der einen Seite stehen Algorithmen, die auf komplexen Datenstrukturen (häufig baumartig) ganze Datensätze unter Verwendung eines Indizes finden. Als geläufiger Vertreter sei hier die binäre Suche auf sortierten Arrays oder in binären Bäumen genannt. Die andere Gruppe, der sich diese Ausarbeitung widmet, dient dazu, Entsprechungen von Mustern in gegebenen Zeichenketten zu finden. Auf den folgenden Seiten werden nun zunächst einige Begriffe eingeführt, die für das weitere Verständnis und einen Vergleich verschiedener Suchalgorithmen nötig sind. Weiterhin wird ein naiver Suchalgorithmus dargestellt und mit der Idee von Boyer und Moore verglichen. Hierzu wird ihr Algorithmus zunächst informal beschrieben, dann mit Blick auf eine Implementation näher erläutert und anschließend einer Effizienzanalyse - sowohl empirisch als auch theoretisch - unterzogen. Abschließend findet eine kurze Bewertung mit Bezug auf Schwachstellen, Vorzüge und Verbesserungsmöglichkeiten statt, im Zuge derer einige prominente Modifikationen des Boyer-Moore Algorithmus vorgestellt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/KristoferFichtner.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster
  19. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.04
    0.041624248 = product of:
      0.13319759 = sum of:
        0.03439793 = weight(_text_:informatik in 2283) [ClassicSimilarity], result of:
          0.03439793 = score(doc=2283,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2254996 = fieldWeight in 2283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.041184895 = weight(_text_:anwendungen in 2283) [ClassicSimilarity], result of:
          0.041184895 = score(doc=2283,freq=2.0), product of:
            0.16691269 = queryWeight, product of:
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.029895496 = queryNorm
            0.24674514 = fieldWeight in 2283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.583205 = idf(docFreq=451, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.027969373 = weight(_text_:der in 2283) [ClassicSimilarity], result of:
          0.027969373 = score(doc=2283,freq=36.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.4188313 = fieldWeight in 2283, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
        0.02388733 = product of:
          0.04777466 = sum of:
            0.04777466 = weight(_text_:wissensmanagement in 2283) [ClassicSimilarity], result of:
              0.04777466 = score(doc=2283,freq=2.0), product of:
                0.17977081 = queryWeight, product of:
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.029895496 = queryNorm
                0.26575315 = fieldWeight in 2283, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.0133076 = idf(docFreq=293, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2283)
          0.5 = coord(1/2)
        0.0057580643 = weight(_text_:information in 2283) [ClassicSimilarity], result of:
          0.0057580643 = score(doc=2283,freq=4.0), product of:
            0.052480884 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029895496 = queryNorm
            0.10971737 = fieldWeight in 2283, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=2283)
      0.3125 = coord(5/16)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
    Content
    Dissertation zur Erlangung des akademischen Grades Doktor-Ingenieur (Dr.-Ing.) der Fakultät für Mathematik und Informatik der FernUniversität in Hagen. Vgl.: http://deposit.fernuni-hagen.de/3042/.
  20. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.04
    0.03731563 = product of:
      0.19901669 = sum of:
        0.042997412 = weight(_text_:informatik in 868) [ClassicSimilarity], result of:
          0.042997412 = score(doc=868,freq=2.0), product of:
            0.15254098 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.029895496 = queryNorm
            0.2818745 = fieldWeight in 868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.02330781 = weight(_text_:der in 868) [ClassicSimilarity], result of:
          0.02330781 = score(doc=868,freq=16.0), product of:
            0.06677957 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.029895496 = queryNorm
            0.34902605 = fieldWeight in 868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
        0.13271147 = weight(_text_:wirtschaftsinformatik in 868) [ClassicSimilarity], result of:
          0.13271147 = score(doc=868,freq=4.0), product of:
            0.22535236 = queryWeight, product of:
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.029895496 = queryNorm
            0.5889065 = fieldWeight in 868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.538004 = idf(docFreq=63, maxDocs=44218)
              0.0390625 = fieldNorm(doc=868)
      0.1875 = coord(3/16)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
    Imprint
    Münster : Institut für Wirtschaftsinformatik der Westfälische Wilhelms-Universität Münster

Years

Languages

  • d 524
  • e 43
  • a 1
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types

  • el 29
  • m 22
  • r 2
  • a 1
  • More… Less…

Themes

Subjects

Classifications