Search (171 results, page 1 of 9)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.36
    0.3576733 = product of:
      1.0730199 = sum of:
        0.10730198 = product of:
          0.32190594 = sum of:
            0.32190594 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.32190594 = score(doc=973,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.32190594 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.32190594 = score(doc=973,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.32190594 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.32190594 = score(doc=973,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.32190594 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.32190594 = score(doc=973,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.33333334 = coord(4/12)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.21
    0.2085535 = product of:
      0.5005284 = sum of:
        0.04470916 = product of:
          0.13412748 = sum of:
            0.13412748 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.13412748 = score(doc=4388,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.13412748 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4388,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.13412748 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4388,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.053436786 = weight(_text_:systeme in 4388) [ClassicSimilarity], result of:
          0.053436786 = score(doc=4388,freq=2.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.2956176 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.13412748 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4388,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.41666666 = coord(5/12)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.17
    0.16552964 = product of:
      0.49658892 = sum of:
        0.16095297 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16095297 = score(doc=563,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16095297 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16095297 = score(doc=563,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.16095297 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16095297 = score(doc=563,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.013730015 = product of:
          0.02746003 = sum of:
            0.02746003 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.02746003 = score(doc=563,freq=2.0), product of:
                0.11829046 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033779617 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.33333334 = coord(4/12)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.16
    0.16367036 = product of:
      0.49101105 = sum of:
        0.035767328 = product of:
          0.10730198 = sum of:
            0.10730198 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.10730198 = score(doc=5820,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15174791 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15174791 = score(doc=5820,freq=4.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15174791 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15174791 = score(doc=5820,freq=4.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15174791 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15174791 = score(doc=5820,freq=4.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.33333334 = coord(4/12)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  5. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.15
    0.14903055 = product of:
      0.44709164 = sum of:
        0.04470916 = product of:
          0.13412748 = sum of:
            0.13412748 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.13412748 = score(doc=4997,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.13412748 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4997,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.13412748 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4997,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.13412748 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13412748 = score(doc=4997,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.33333334 = coord(4/12)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.15
    0.14903055 = product of:
      0.44709164 = sum of:
        0.04470916 = product of:
          0.13412748 = sum of:
            0.13412748 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.13412748 = score(doc=855,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.13412748 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13412748 = score(doc=855,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.13412748 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13412748 = score(doc=855,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.13412748 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13412748 = score(doc=855,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.33333334 = coord(4/12)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.15
    0.14903055 = product of:
      0.44709164 = sum of:
        0.04470916 = product of:
          0.13412748 = sum of:
            0.13412748 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.13412748 = score(doc=1000,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.13412748 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13412748 = score(doc=1000,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.13412748 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13412748 = score(doc=1000,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.13412748 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13412748 = score(doc=1000,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.33333334 = coord(4/12)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.12
    0.11922442 = product of:
      0.35767326 = sum of:
        0.035767328 = product of:
          0.10730198 = sum of:
            0.10730198 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.10730198 = score(doc=701,freq=2.0), product of:
                0.286384 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.033779617 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.10730198 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10730198 = score(doc=701,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10730198 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10730198 = score(doc=701,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.10730198 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.10730198 = score(doc=701,freq=2.0), product of:
            0.286384 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.033779617 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.33333334 = coord(4/12)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.09
    0.091412485 = product of:
      0.21938998 = sum of:
        0.048583783 = weight(_text_:informatik in 867) [ClassicSimilarity], result of:
          0.048583783 = score(doc=867,freq=2.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.2818745 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.077757284 = weight(_text_:verteilte in 867) [ClassicSimilarity], result of:
          0.077757284 = score(doc=867,freq=2.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.35659945 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.053436786 = weight(_text_:systeme in 867) [ClassicSimilarity], result of:
          0.053436786 = score(doc=867,freq=2.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.2956176 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.02817044 = weight(_text_:internet in 867) [ClassicSimilarity], result of:
          0.02817044 = score(doc=867,freq=6.0), product of:
            0.09972553 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033779617 = queryNorm
            0.28247973 = fieldWeight in 867, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.01144168 = product of:
          0.02288336 = sum of:
            0.02288336 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.02288336 = score(doc=867,freq=2.0), product of:
                0.11829046 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033779617 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.41666666 = coord(5/12)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/ChristophLehrke.pdf
    Pages
    22 S
  10. Schneider, W.: ¬Ein verteiltes Bibliotheks-Informationssystem auf Basis des Z39.50 Protokolls (1999) 0.06
    0.05973685 = product of:
      0.2389474 = sum of:
        0.077734046 = weight(_text_:informatik in 4773) [ClassicSimilarity], result of:
          0.077734046 = score(doc=4773,freq=2.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.4509992 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.12441166 = weight(_text_:verteilte in 4773) [ClassicSimilarity], result of:
          0.12441166 = score(doc=4773,freq=2.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.57055914 = fieldWeight in 4773, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
        0.03680171 = weight(_text_:internet in 4773) [ClassicSimilarity], result of:
          0.03680171 = score(doc=4773,freq=4.0), product of:
            0.09972553 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033779617 = queryNorm
            0.36902997 = fieldWeight in 4773, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0625 = fieldNorm(doc=4773)
      0.25 = coord(3/12)
    
    Abstract
    Diese Diplomarbeit beschreibt ein verteiltes Bibliothes-Informationssystem für bibliographische Datenbnaken im Internet. Der Name des Systems ist ZACK. Der Benutzer kann mit ZACK in einer oder mehreren bibliographischen Datenbanken nach einem Dokument suchen und die Treffer in die eigene lokale Datenbank übernehmen. Mit der Übernahme der Datensätze aus einer fremden Datenbank wird die Erfassung neuer Dokumente wesentlich erleichtert, da die Eigenkatalogisierung auf ein Minimum beschränkt werden kann. Bei der verteilten Suche mit ZACK wird parallel in mehreren Datenbanken gesucht. Dubletten werden als solche erkannt
    Imprint
    Berlin : TU Berlin, FB Informatik
    Theme
    Verteilte bibliographische Datenbanken
    Internet
  11. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.05
    0.049178664 = product of:
      0.19671465 = sum of:
        0.029150266 = weight(_text_:informatik in 4097) [ClassicSimilarity], result of:
          0.029150266 = score(doc=4097,freq=2.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.1691247 = fieldWeight in 4097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.1399631 = weight(_text_:verteilte in 4097) [ClassicSimilarity], result of:
          0.1399631 = score(doc=4097,freq=18.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.641879 = fieldWeight in 4097, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
        0.027601281 = weight(_text_:internet in 4097) [ClassicSimilarity], result of:
          0.027601281 = score(doc=4097,freq=16.0), product of:
            0.09972553 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033779617 = queryNorm
            0.27677247 = fieldWeight in 4097, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4097)
      0.25 = coord(3/12)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
    Theme
    Verteilte bibliographische Datenbanken
  12. Sauer, C.S.: Analyse von Webcommunities und Extraktion von Wissen aus Communitydaten für Case-Based Reasoning Systeme (2010) 0.05
    0.04824226 = product of:
      0.19296904 = sum of:
        0.084149584 = weight(_text_:informatik in 2231) [ClassicSimilarity], result of:
          0.084149584 = score(doc=2231,freq=6.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.48822102 = fieldWeight in 2231, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.09255523 = weight(_text_:systeme in 2231) [ClassicSimilarity], result of:
          0.09255523 = score(doc=2231,freq=6.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.51202476 = fieldWeight in 2231, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
        0.016264211 = weight(_text_:internet in 2231) [ClassicSimilarity], result of:
          0.016264211 = score(doc=2231,freq=2.0), product of:
            0.09972553 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033779617 = queryNorm
            0.16308975 = fieldWeight in 2231, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2231)
      0.25 = coord(3/12)
    
    Abstract
    Die vorliegende Arbeit befasst sich mit den Möglichkeiten der Informationsextraktion aus den Daten von Webcommunities und der Verwendung der extrahierten Informationen in Case-Based Reasoning- (CBR) Systemen. Im Rahmen der Arbeit wird auf die Entwicklung der Webcommunities im Zeitraum der letzten 30 Jahre eingegangen. Es wird eine Klassifikation der derzeitig anzutreffenden Webcommunities in verschiedene Kategorien von Webcommunities vorgenommen. Diese Klassifikation erfolgt hinsichtlich der Struktur, der technischen Mittel sowie der Interessen der Nutzer dieser Webcommunities. Aufbauend auf die vorgenommene Klassifikation von Webcommunities erfolgt eine Untersuchung der Eignung dieser Kategorien von Webcommunities zur Informationsextraktion im Kontext der Verwendung der extrahierten Informationen in CBR-Systemen. Im selben Kontext werden verschiedene Ansätze und Techniken der Informationsextraktion auf ihre Eignung zur Extraktion von Wissen speziell für die Wissenscontainer von CBR -Systeme geprüft. Aufbauend auf den dadurch gewonnenen Erkenntnissen wird, angelehnt an den Prozess der Knowledge Discovery in Databases, ein eigenes Prozessmodell der Wissensextraktion aus Webcommunities für CBR-Systeme entworfen. Im Zuge der näheren Betrachtung dieses Prozessmodells wird auf verschiedene, durch die beabsichtigte Verwendung der extrahierten Informationen in den vier Wissenscontainern des CBR bedingte, Anforderungen an NLP- sowie IE-Techniken, die zur Extraktion dieser Daten verwendet werden, eingegangen. Die in den theoretischen Betrachtungen erlangten Erkenntnisse werden dann dazu eingesetzt, eine Anwendung zur Informationsextraktion aus einer Webcommunity für ein CBR-System, in Form der Knowledge Extraction Workbench zu implementieren. Diese IEAnwendung arbeitet im Kontext des auf der SEASALT-Architektur aufbauenden Projektes docQuery. Die Realisierung dieser IE-Anwendung wird dokumentiert sowie die Extraktionsergebnisse der Anwendung hinsichtlich ihres Umfanges und ihrer Qualität evaluiert.
    Content
    Masterarbeit, Universität Hildesheim, Institut für Informatik, Bereich Intelligente Informationssysteme. Vgl.: https://www.uni-hildesheim.de/media/fb4/informatik/AG_ESS/Paper/Sauer/Master_thesis_Sauer.pdf.
    Imprint
    Hildesheim : Universität Hildesheim, Institut für Informatik
    Theme
    Internet
  13. García Barrios, V.M.: Informationsaufbereitung und Wissensorganisation in transnationalen Konzernen : Konzeption eines Informationssystems für große und geographisch verteilte Unternehmen mit dem Hyperwave Information System (2002) 0.04
    0.044468265 = product of:
      0.17787306 = sum of:
        0.07435629 = weight(_text_:205 in 6000) [ClassicSimilarity], result of:
          0.07435629 = score(doc=6000,freq=2.0), product of:
            0.2132302 = queryWeight, product of:
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.033779617 = queryNorm
            0.3487137 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.312392 = idf(docFreq=217, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
        0.077757284 = weight(_text_:verteilte in 6000) [ClassicSimilarity], result of:
          0.077757284 = score(doc=6000,freq=2.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.35659945 = fieldWeight in 6000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6000)
        0.02575949 = product of:
          0.05151898 = sum of:
            0.05151898 = weight(_text_:allgemein in 6000) [ClassicSimilarity], result of:
              0.05151898 = score(doc=6000,freq=2.0), product of:
                0.17748983 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.033779617 = queryNorm
                0.2902644 = fieldWeight in 6000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=6000)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Transnationale Konzerne haben einen dringenden Bedarf an einer umfassenden Lösung für ihre Intranetsysteme. Die spezifischen Anforderungen an ein wissensbasiertes Informationssystem sind vielfältig, die kritischsten davon sind aber allgemein gültig und ergeben sich aufgrund der stark vernetzten und geographisch verteilten Struktur des Konzerns. In unterschiedlichen Wissensdisziplinen, insbesondere Wissensmanagement, Informationsmanagement, Datenmanagement und Wissensorganisation, versucht man, oftmals in den einzelnen Disziplinen isoliert, die Erfüllung spezifischer Anforderungen zu implementieren. Nicht selten auf eine ineffektive Weise. Die nachfolgende Arbeit verfolgt deshalb einen ganzheitlichen Ansatz über die Wissensdisziplinen, um den umfangreichen Anforderungen gerecht werden zu können. Im Untersuchungsbereich der vorliegenden Arbeit wird die Problematik aus der Sicht der wichtigsten involvierten Wissensdisziplinen beleuchtet, um nach vorhandenen bzw. etablierten Lösungsansätzen zu suchen. Die spezifischen Einflussbereiche der Disziplinen auf Intranetlösungen werden überprüft und kritischen Aspekten von Anforderungen (beispielsweise 'starke örtliche Verteilung vs. Systemtransparenz', 'Replikationsmaßnahmen vs. Systemperformanz' oder 'semantische Wissensmodelle vs. bedarfsgerechten Wissenszugang') gegenübergestellt. Jede Disziplin bietet effiziente und effektive Lösungen für unterschiedliche Aspekte, es konnte jedoch kein umfassendes Gestaltungsmodell, welches die spezifischen Lösungsansätze der Disziplinen vereint, im Rahmen des Rechercheprozesses identifiziert werden. Aufgrund des oben beschriebenen Sachverhalts wird im Gestaltungsbereich dieser Arbeit ein zweiteiliges Technisches Gestaltungsmodell vorgestellt. Es besteht aus einem strategischen Analyseschema und einem funktionalen Komponentenschema, und berücksichtigt die Einflussbereiche oben erwähnter Wissensdisziplinen. Basierend auf der konkreten Anforderung einer Intranetlösung für einen transnationalen - und anonymisiert dargestellten - Konzern, wird das vorgestellte Modell angewandt, und auf Basis des Hyperwave Information Servers die technische Umsetzung eines wissensbasierten Informationssystems, von dem beispielhaft zwei Module näher beschrieben werden, gezeigt.
    Pages
    205 S
  14. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.04
    0.03762328 = product of:
      0.22573966 = sum of:
        0.1616155 = weight(_text_:verteilte in 2504) [ClassicSimilarity], result of:
          0.1616155 = score(doc=2504,freq=6.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.74117815 = fieldWeight in 2504, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
        0.064124145 = weight(_text_:systeme in 2504) [ClassicSimilarity], result of:
          0.064124145 = score(doc=2504,freq=2.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.35474116 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=2504)
      0.16666667 = coord(2/12)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Theme
    Verteilte bibliographische Datenbanken
  15. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2004) 0.04
    0.03762328 = product of:
      0.22573966 = sum of:
        0.1616155 = weight(_text_:verteilte in 4941) [ClassicSimilarity], result of:
          0.1616155 = score(doc=4941,freq=6.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.74117815 = fieldWeight in 4941, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.046875 = fieldNorm(doc=4941)
        0.064124145 = weight(_text_:systeme in 4941) [ClassicSimilarity], result of:
          0.064124145 = score(doc=4941,freq=2.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.35474116 = fieldWeight in 4941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=4941)
      0.16666667 = coord(2/12)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
    Theme
    Verteilte bibliographische Datenbanken
  16. Milanesi, C.: Möglichkeiten der Kooperation im Rahmen von Subject Gateways : das Euler-Projekt im Vergleich mit weiteren europäischen Projekten (2001) 0.04
    0.035679586 = product of:
      0.2140775 = sum of:
        0.18661748 = weight(_text_:verteilte in 4865) [ClassicSimilarity], result of:
          0.18661748 = score(doc=4865,freq=2.0), product of:
            0.21805216 = queryWeight, product of:
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.033779617 = queryNorm
            0.8558387 = fieldWeight in 4865, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.45514 = idf(docFreq=188, maxDocs=44218)
              0.09375 = fieldNorm(doc=4865)
        0.02746003 = product of:
          0.05492006 = sum of:
            0.05492006 = weight(_text_:22 in 4865) [ClassicSimilarity], result of:
              0.05492006 = score(doc=4865,freq=2.0), product of:
                0.11829046 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033779617 = queryNorm
                0.46428138 = fieldWeight in 4865, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4865)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Date
    22. 6.2002 19:41:59
    Theme
    Verteilte bibliographische Datenbanken
  17. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.03
    0.028855776 = product of:
      0.17313465 = sum of:
        0.082449414 = weight(_text_:informatik in 4651) [ClassicSimilarity], result of:
          0.082449414 = score(doc=4651,freq=4.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.4783569 = fieldWeight in 4651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.09068524 = weight(_text_:systeme in 4651) [ClassicSimilarity], result of:
          0.09068524 = score(doc=4651,freq=4.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.5016798 = fieldWeight in 4651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
      0.16666667 = coord(2/12)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
    Content
    Diplomarbeit am Fachbereich Informatik der Universität Dortmund
    Imprint
    Dortmund : Universität / Fachbereich Informatik
  18. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.02
    0.023662945 = product of:
      0.14197767 = sum of:
        0.11106628 = weight(_text_:systeme in 5744) [ClassicSimilarity], result of:
          0.11106628 = score(doc=5744,freq=6.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.6144297 = fieldWeight in 5744, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.046875 = fieldNorm(doc=5744)
        0.030911386 = product of:
          0.061822772 = sum of:
            0.061822772 = weight(_text_:allgemein in 5744) [ClassicSimilarity], result of:
              0.061822772 = score(doc=5744,freq=2.0), product of:
                0.17748983 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.033779617 = queryNorm
                0.34831727 = fieldWeight in 5744, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5744)
          0.5 = coord(1/2)
      0.16666667 = coord(2/12)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
    Theme
    Katalogfragen allgemein
  19. Bredack, J.: Automatische Extraktion fachterminologischer Mehrwortbegriffe : ein Verfahrensvergleich (2016) 0.02
    0.02352317 = product of:
      0.14113902 = sum of:
        0.048583783 = weight(_text_:informatik in 3194) [ClassicSimilarity], result of:
          0.048583783 = score(doc=3194,freq=2.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.2818745 = fieldWeight in 3194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
        0.09255523 = weight(_text_:systeme in 3194) [ClassicSimilarity], result of:
          0.09255523 = score(doc=3194,freq=6.0), product of:
            0.1807632 = queryWeight, product of:
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.033779617 = queryNorm
            0.51202476 = fieldWeight in 3194, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.3512506 = idf(docFreq=569, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3194)
      0.16666667 = coord(2/12)
    
    Abstract
    In dieser Untersuchung wurden zwei Systeme eingesetzt, um MWT aus einer Dokumentkollektion mit fachsprachlichem Bezug (Volltexte des ACL Anthology Reference Corpus) automatisch zu extrahieren. Das thematische Spektrum umfasste alle Bereiche der natürlichen Sprachverarbeitung, im Speziellen die CL als interdisziplinäre Wissenschaft. Ziel war es MWT zu extrahieren, die als potentielle Indexterme im IR Verwendung finden können. Diese sollten auf Konzepte, Methoden, Verfahren und Algorithmen in der CL und angrenzenden Teilgebieten, wie Linguistik und Informatik hinweisen bzw. benennen.
    Als Extraktionssysteme wurden der TreeTagger und die Indexierungssoftware Lingo verwendet. Der TreeTagger basiert auf einem statistischen Tagging- und Chunking- Algorithmus, mit dessen Hilfe NPs automatisch identifiziert und extrahiert werden. Er kann für verschiedene Anwendungsszenarien der natürlichen Sprachverarbeitung eingesetzt werden, in erster Linie als POS-Tagger für unterschiedliche Sprachen. Das Indexierungssystem Lingo arbeitet im Gegensatz zum TreeTagger mit elektronischen Wörterbüchern und einem musterbasierten Abgleich. Lingo ist ein auf automatische Indexierung ausgerichtetes System, was eine Vielzahl von Modulen mitliefert, die individuell auf eine bestimmte Aufgabenstellung angepasst und aufeinander abgestimmt werden können. Die unterschiedlichen Verarbeitungsweisen haben sich in den Ergebnismengen beider Systeme deutlich gezeigt. Die gering ausfallenden Übereinstimmungen der Ergebnismengen verdeutlichen die abweichende Funktionsweise und konnte mit einer qualitativen Analyse beispielhaft beschrieben werden. In der vorliegenden Arbeit kann abschließend nicht geklärt werden, welches der beiden Systeme bevorzugt für die Generierung von Indextermen eingesetzt werden sollte.
  20. Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005) 0.02
    0.022048976 = product of:
      0.088195905 = sum of:
        0.048583783 = weight(_text_:informatik in 4333) [ClassicSimilarity], result of:
          0.048583783 = score(doc=4333,freq=2.0), product of:
            0.17235962 = queryWeight, product of:
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.033779617 = queryNorm
            0.2818745 = fieldWeight in 4333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1024737 = idf(docFreq=730, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.02817044 = weight(_text_:internet in 4333) [ClassicSimilarity], result of:
          0.02817044 = score(doc=4333,freq=6.0), product of:
            0.09972553 = queryWeight, product of:
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.033779617 = queryNorm
            0.28247973 = fieldWeight in 4333, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.9522398 = idf(docFreq=6276, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4333)
        0.01144168 = product of:
          0.02288336 = sum of:
            0.02288336 = weight(_text_:22 in 4333) [ClassicSimilarity], result of:
              0.02288336 = score(doc=4333,freq=2.0), product of:
                0.11829046 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033779617 = queryNorm
                0.19345059 = fieldWeight in 4333, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4333)
          0.5 = coord(1/2)
      0.25 = coord(3/12)
    
    Abstract
    Die Suche nach Informationen im Internet führt den Nutzer meistens direkt zu einer Suchmaschine. Teile der gelieferten Ergebnisse enthalten aber manchmal nicht das, was der Nutzer gesucht hat. Hier setzen sog. adaptive Agenten an, welche die Gewohnheiten ihres Nutzers zu erlernen versuchen, um später auf Basis dessen selbstständig Entscheidungen zu treffen, ohne dass der Nutzer dazu befragt werden muss. Zunächst werden im Grundlagenteil adaptive Techniken zur Informationsgewinnung sowie die grundlegenden Eigenschaften von Webcrawlern besprochen. Im Hauptteil wird daraufhin der Webcrawler InfoSpiders erläutert. Dieses Programm arbeitet mit mehreren adaptiven Agenten, die parallel basierend auf einem Satz von Startlinks das Internet nach Informationen durchsuchen. Dabei bedienen sich die Agenten verschiedenster Techniken. Darunter fallen beispielsweise statistische Methoden, die den Inhalt von Webseiten untersuchen sowie neuronale Netze, mit denen der Inhalt bewertet wird. Eine andere Technik implementiert der genetische Algorithmus mit Hilfe dessen die Agenten Nachkommen mit neuen Mutationen erzeugen können. Danach wird eine konkrete Implementierung des InfoSpiders-Algorithmus' anhand von MySpiders verdeutlicht. Im Anschluss daran wird der InfoSpiders-Algorithmus sowie MySpiders einer Evaluation bezüglich des zusätzlichen Nutzens gegenüber herkömmlichen Suchmaschinen unterzogen. Eine Zusammenfassung mit Ausblick zu weiteren Entwicklungen in dem Bereich adaptiver Agenten zur Suche im Internet wird das Thema abschließen.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf
    Pages
    22 S

Authors

Languages

  • d 155
  • e 14
  • f 1
  • hu 1
  • More… Less…

Types