Search (50 results, page 1 of 3)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.39
    0.3943473 = product of:
      0.59152097 = sum of:
        0.14788024 = product of:
          0.4436407 = sum of:
            0.4436407 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.4436407 = score(doc=973,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.4436407 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.4436407 = score(doc=973,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.17
    0.17228511 = product of:
      0.25842765 = sum of:
        0.049293414 = product of:
          0.14788024 = sum of:
            0.14788024 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.14788024 = score(doc=5820,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.20913424 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.20913424 = score(doc=5820,freq=4.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.6666667 = coord(2/3)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.16
    0.1643114 = product of:
      0.24646708 = sum of:
        0.06161677 = product of:
          0.1848503 = sum of:
            0.1848503 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.1848503 = score(doc=4997,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.1848503 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.1848503 = score(doc=4997,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.6666667 = coord(2/3)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.16
    0.1643114 = product of:
      0.24646708 = sum of:
        0.06161677 = product of:
          0.1848503 = sum of:
            0.1848503 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.1848503 = score(doc=4388,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.1848503 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.1848503 = score(doc=4388,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.6666667 = coord(2/3)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.16
    0.1643114 = product of:
      0.24646708 = sum of:
        0.06161677 = product of:
          0.1848503 = sum of:
            0.1848503 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.1848503 = score(doc=855,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.1848503 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.1848503 = score(doc=855,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.6666667 = coord(2/3)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.16
    0.1643114 = product of:
      0.24646708 = sum of:
        0.06161677 = product of:
          0.1848503 = sum of:
            0.1848503 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.1848503 = score(doc=1000,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.1848503 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.1848503 = score(doc=1000,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.6666667 = coord(2/3)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.16
    0.1604951 = product of:
      0.24074264 = sum of:
        0.22182035 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.22182035 = score(doc=563,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.018922279 = product of:
          0.037844557 = sum of:
            0.037844557 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.037844557 = score(doc=563,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.13
    0.1314491 = product of:
      0.19717366 = sum of:
        0.049293414 = product of:
          0.14788024 = sum of:
            0.14788024 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.14788024 = score(doc=701,freq=2.0), product of:
                0.39468548 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046554018 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.14788024 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.14788024 = score(doc=701,freq=2.0), product of:
            0.39468548 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046554018 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6666667 = coord(2/3)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Schöne, B.: Geographische Informationssysteme : Aufbau und Einsatzmöglichkeiten am Beispiel der Umweltbehörde Hamburg (1997) 0.04
    0.038501717 = product of:
      0.11550515 = sum of:
        0.11550515 = product of:
          0.2310103 = sum of:
            0.2310103 = weight(_text_:informationssysteme in 1493) [ClassicSimilarity], result of:
              0.2310103 = score(doc=1493,freq=4.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.88053596 = fieldWeight in 1493, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1493)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Am Beispiel der Umweltbehörde Hamburg und ihrem Umweltinformationssystem HUIS wird ein Einblick in die Voraussetzungen, Ziele und Anwendungsmöglichkeiten raumbezogener Informationssysteme gegeben. Durch das dort eingesetzte geographische Informationssystem ArcInfo werden räumliche Daten mit Sachdaten verknüft und thematisch dargestellt
  10. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2003) 0.03
    0.028292872 = product of:
      0.084878616 = sum of:
        0.084878616 = product of:
          0.16975723 = sum of:
            0.16975723 = weight(_text_:informationssysteme in 2504) [ClassicSimilarity], result of:
              0.16975723 = score(doc=2504,freq=6.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.6470592 = fieldWeight in 2504, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2504)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
  11. Fritz, M.-L.: Zugang zu verteilten bibliografischen Datenbeständen : Konzepte und Realisierungen für heterogene Umgebungen (2004) 0.03
    0.028292872 = product of:
      0.084878616 = sum of:
        0.084878616 = product of:
          0.16975723 = sum of:
            0.16975723 = weight(_text_:informationssysteme in 4941) [ClassicSimilarity], result of:
              0.16975723 = score(doc=4941,freq=6.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.6470592 = fieldWeight in 4941, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4941)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Das steigende Angebot an Datenbanken und weiteren Systeme im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBVSuchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
  12. Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008) 0.02
    0.021779861 = product of:
      0.06533958 = sum of:
        0.06533958 = product of:
          0.13067916 = sum of:
            0.13067916 = weight(_text_:informationssysteme in 4173) [ClassicSimilarity], result of:
              0.13067916 = score(doc=4173,freq=2.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.49810636 = fieldWeight in 4173, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4173)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Imprint
    Braunschweig : Technische Universität; Institut für Informationssysteme
  13. Nikolai, R.: Thesaurusföderationen : Ein Rahmenwerk für die flexible Integration von heterogenen, autonomen Thesauri (2002) 0.02
    0.020006081 = product of:
      0.06001824 = sum of:
        0.06001824 = product of:
          0.12003648 = sum of:
            0.12003648 = weight(_text_:informationssysteme in 165) [ClassicSimilarity], result of:
              0.12003648 = score(doc=165,freq=12.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.45753992 = fieldWeight in 165, product of:
                  3.4641016 = tf(freq=12.0), with freq of:
                    12.0 = termFreq=12.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=165)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Dem wachsenden Bedarf der "Informationsgesellschaft" nach Informationen folgten in den letzten Jahren rasch wachsende Informationssysteme, die heterogene Informationen global verteilt und einfach zugreifbar vorhalten. Solche modernen Informationssysteme und datenintensiven Anwendungen können als eine wesentliche Komponente "verteilter Informationsumgebungen" angesehen werden, die universellen Zugriff auf Informationen aus einer Vielzahl menschlicher Wissensgebiete ermöglichen. Charakteristische Eigenschaften derartiger großer Informationssysteme sind, dass sie auf großen, zum Teil autonomen Informationsquellen basieren, die häufig über offene Computernetze (lose) verbunden sind, eine große Anzahl von Benutzern unterstützen, eine Infrastruktur anbieten, die den einfachen Zugriff auf verschiedenen Dienste ermöglicht, und dass die Qualität dieser Dienste entscheidend für deren Erfolg ist. Von besonderer Bedeutung sind bei derartig großen zur Verfügung stehenden Datenmengen Dienste, die das gezielte Wiederauffinden von Informationen (Information Retrieval) ermöglichen. Thesauri sind ein bewährtes Werkzeug, um diesen Prozess zu unterstützen. Sie bieten ein einheitliches und konsistentes Vokabular, das als Grundlage für semantisches Information Retrieval verwendet werden kann. Bei einem häufig fachübergreifenden Datenbestand, der auch mehrsprachig sein kann, sind traditionelle Fachthesauri, die in der Regel nur einsprachig vorliegen, aber nicht mehr ausreichend. Selbst in Dokumentenbeständen eines Fachinformationssystems finden sich oft Ausweitungen auf Begriffe angrenzender Fachgebiete. Es wird ein umfangreicheres und zugleich spezialisierteres Vokabular gefordert.
    In Informationssystemen werden häufig jeweils an die besonderen Bedürfnisse der Benutzer angepasste Thesauri verwendet. Bei einer Integration der Informationssysteme wird auch eine Integration der Thesauri erforderlich, um den Benutzer beispielsweise dabei zu unterstützen, Informationen aus verschiedenen Informationsquellen zu erhalten. Die DG XIII der Europäischen Union hat bereits 1990 eine Liste von 1.000 häufig verwendeten Thesauri weltweit erstellt. Eine Verbindung dieser Thesauri wäre ein wichtiger Fortschritt bei der gemeinsamen Benutzung der Terminologie. Da das Aufbauen eines neuen Thesaurus, aber auch die manuelle Integration existierender Thesauri immense Kosten verursacht (als Beispiel sei genannt, dass zur Erstellung einer initialen Version des Allgemeinen Umweltthesaurus GEMET mehrere Mannjahre benötigt wurden), sind neue Lösungen, die eine integrierte Sicht auf die Vokabulare mehrerer Thesauri unter Aufwendung finanziell vertretbarer Mittel ermöglichen, erforderlich. Zudem wird die klassische Form der Integration von Thesauri der losen Kopplung von Informationssystemen nicht gerecht. Die erforderlichen technischen Voraussetzungen für das logische Zusammenbringen verteilter, heterogener Thesauri sind durch lokale und globale Vernetzung weitestgehend gegeben.
    Zielbeschreibung: In dieser Arbeit soll ein Rahmenwerk für die lose Integration von heterogenen und autonomen Thesauri, Thesaurusföderationen genannt, erarbeitet werden. Das Konzept der Thesaurusföderationen soll den Anforderungen moderner Informationssysteme nach zugleich umfangreicheren und spezialisierteren Vokabularen unter Ausnutzung neuer technologischer Möglichkeiten gerecht werden. Der zu entwickelnde Integrations-Ansatz soll als Basis die mit großem Aufwand erstellten, bereits vorhandenen Thesauri (Komponententhesauri) verwenden und deren Vokabulare verknüpfen, so dass sie als ein Gesamtvokabular erscheinen. Existierende Ansätze für einen integrierten Zugriff auf verschiedene Informationssysteme sowie der gleichzeitigen Verwendung verschiedener Terminologien basieren auf so genannten MultiThesaurus-Systemen. Ein wesentlicher Kritikpunkt an diesen Ansätzen ist der, dass jeweils nur Teilaspekte behandelt werden. Was fehlt, ist ein in ganzheitliches Rahmenwerk, das die Aspekte der Integration, der Behandlung von Konflikten und Unvollständigkeiten, der Verwendung im Information Retrieval und schließlich die Bewertung der Güte des integrierten Vokabulars betrachtet. Ein solches Rahmenwerk soll in dieser Arbeit erstmals erarbeitet werden. Dabei gilt es zu berücksichtigen, dass eine Überforderung des Benutzers durch die Komplexität des Gesamtvokabulars vermieden wird. U.a. soll das dynamische Ein-/Ausblenden von teilhabenden Thesauri unterstützt werden. Die existierenden Ansätze der Multi-Thesaurus-Systeme berücksichtigen zudem nicht eine in verteilten Informationssystemen erstrebenswerte Autonomie der Thesauri und ihre häufig gegebene Heterogenität. Um diesen Anforderungen gerecht zu werden, soll sich unser Ansatz an den Konzepten föderierter Datenbanksysteme orientieren, allerdings ohne die Einschränkung, ausschließlich von Datenbankverwaltungsystemen verwaltete Thesauri zu integrieren. Der Schwerpunkt soll hier auf der semantischen Integration liegen, die in föderierten Datenbanksystemen häufig nur ein Randthema ist. Neue Integrationsverfahren auf semantischer Ebene (Begriffsintegration), die im Gegensatz zu bekannten Ansätzen die Ergebnisse einer rechner-unterstützten Analyse der Inhalte und Güte der Thesauri berücksichtigen und entsprechend konfiguriert werden, sollen eine verbesserte semi-automatische Integration ermöglichen, ebenso erstmals eine Bewertung der Integrationsergebnisse. Diese Verfahren sollen die Reichhaltigkeit der Informationen in den Thesauri selbst ausnutzen sowie auf weitere Wissensquellen zugreifen können, um den notwendigen menschlichen Einsatz zu minimieren. Die Thesaurusföderation soll ihre Dienste als Mehrwertdienste anbieten und dazu auf die an der Föderation beteiligten heterogenen Komponententhesauri zugreifen, deren Autonomie erhalten bleibt. Um den breiten Einsatz des entwickelten Ansatzes zu ermöglichen, soll das Konzept grundsätzlich fachgebietsunabhängig sein. Auch wenn eine (semi-)automatische Integration unter Berücksichtigung der Autonomie einem durch manuelle Verfahren und Anpassung der beteiligten Thesauri entstandenem SuperThesaurus unterlegen ist, ist dies möglicherweise die einzig praktikable Art und Weise, um ein flexibel skalierbares Multi-Thesaurus-System zu erstellen und zu pflegen.
  14. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.019057378 = product of:
      0.057172135 = sum of:
        0.057172135 = product of:
          0.11434427 = sum of:
            0.11434427 = weight(_text_:informationssysteme in 782) [ClassicSimilarity], result of:
              0.11434427 = score(doc=782,freq=2.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.43584305 = fieldWeight in 782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=782)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  15. Schmude, A.N.: Ontologiebasierte Suche und Navigation in webbasierten Informationssystemen : am Beispiel Bürgerinformationsdienste (2004) 0.02
    0.018861916 = product of:
      0.056585744 = sum of:
        0.056585744 = product of:
          0.11317149 = sum of:
            0.11317149 = weight(_text_:informationssysteme in 4605) [ClassicSimilarity], result of:
              0.11317149 = score(doc=4605,freq=6.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.4313728 = fieldWeight in 4605, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4605)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Webbasierte Informationssysteme werden heute von einer Vielzahl unterschiedlicher Organisationen angeboten, mit ganz verschiedenen Zielsetzungen. Die technischen Herausforderungen bzgl. Datenhaltung, Pflege der Informationen und Anbindung an das Internet scheinen gelöst. Das Auffinden bestimmter Informationen stellt für viele Nutzer aber dennoch eine große Herausforderung dar. Das gilt für das WWW (WorldWide Web ) als Ganzes, wie auch für viele einzelne webbasierte Informationssysteme. Grund dafür sind im Wesentlichen die nach wie vor ungenügenden Benutzungs-schnittstellen. Heutig gängige webbasierte Informationssysteme bieten Nutzern meist neben einer Navigation die Möglichkeit, Informationen durch das Absenden einer Suchanfrage zu suchen. Beide Strategien, also die Suche und die Navigation, weisen jeweils eigene Probleme in der Umsetzung auf, die es verhindern, dass Nutzer die gewünschte Information einfach auffinden können. Oftmals werden Suchanfragen unspezifisch und allgemein gehalten vorgetragen. Wird eine solche Anfrage mit einer großen Zusammenstellung von Daten beantwortet, man denke nur an Suchergebnisse von Suchmaschinen mit tausenden Treffern, und damit tausenden von Nieten, kann sich schnell Frust einstellen. Aber auch heutige Navigationen sind nicht geeignet, es dem Nutzer so einfach wie möglich zu machen. Sie beschränken sich meist auf Begriffshierarchien. Der Informationsraum wird also in Ober- und Unterklassen gegliedert und die Informationsobjekte den Ebenen zugeordnet. Eine solche Aufteilung kann für den einen sinnvoll und verständlich sein, andere aber in die Irre führen. Zudem lassen sich Begriffe nur anhand zweier Beziehungen, nämlich Ober- und Unterbegriff, strukturieren. Begriffe und Konzepte vieler Themengebiete weisen aber weitere Beziehungen auf, wie "gehört zu", "arbeitet zusammen mit", "entwickelte" um nur ein paar Beispiele zu nennen. Semantische Netze bzw. Ontologien können eine solche Verknüpfung durch die Beschreibung ebendieser Beziehungen leisten. Die Ausgangsüberlegung dieser Arbeit ist es, die Strukturierung des Informationsraums mit Hilfe einer Ontologie vorzunehmen. Diese erweiterte Strukturierung soll sowohl für die Suche als auch für die Navigation genutzt werden, um die Auffindbarkeit von Information zu verbessern. Eine Suchfunktionalität müsste sich nicht mehr nur auf eine wortbasierte Suche verlassen, sondern könnte das Beziehungsgeflecht nutzen. Die Navigation wiederum könnte die Beziehungen explizit machen und dadurch Nutzern helfen, den Informationsraum zu verstehen und dadurch einfacher zielgerichtet zu der gewünschten Information zu navigieren. Als Untersuchungsgegenstand werden in dieser Arbeit Bürgerinformationssysteme betrachtet. Die Anwendungsdomäne webbasierte Bürgerinformation ist ausreichend komplex, um daran die oben angeführten Probleme untersuchen zu können. Heutige Bürgerinformationssysteme weisen, neben anderen Problemen, genau die oben beschriebenen Schwächen auf, wie sich zeigen wird.
  16. Stünkel, M.: Neuere Methoden der inhaltlichen Erschließung schöner Literatur in öffentlichen Bibliotheken (1986) 0.02
    0.016819805 = product of:
      0.05045941 = sum of:
        0.05045941 = product of:
          0.10091882 = sum of:
            0.10091882 = weight(_text_:22 in 5815) [ClassicSimilarity], result of:
              0.10091882 = score(doc=5815,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.61904186 = fieldWeight in 5815, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=5815)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    4. 8.2006 21:35:22
  17. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.02
    0.015400688 = product of:
      0.046202064 = sum of:
        0.046202064 = product of:
          0.09240413 = sum of:
            0.09240413 = weight(_text_:informationssysteme in 2283) [ClassicSimilarity], result of:
              0.09240413 = score(doc=2283,freq=4.0), product of:
                0.26235193 = queryWeight, product of:
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.046554018 = queryNorm
                0.3522144 = fieldWeight in 2283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.6354303 = idf(docFreq=428, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2283)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
  18. Menges, T.: Möglichkeiten und Grenzen der Übertragbarkeit eines Buches auf Hypertext am Beispiel einer französischen Grundgrammatik (Klein; Kleineidam) (1997) 0.01
    0.014717328 = product of:
      0.044151984 = sum of:
        0.044151984 = product of:
          0.08830397 = sum of:
            0.08830397 = weight(_text_:22 in 1496) [ClassicSimilarity], result of:
              0.08830397 = score(doc=1496,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.5416616 = fieldWeight in 1496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=1496)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 7.1998 18:23:25
  19. Schneider, A.: ¬Die Verzeichnung und sachliche Erschließung der Belletristik in Kaysers Bücherlexikon und im Schlagwortkatalog Georg/Ost (1980) 0.01
    0.014717328 = product of:
      0.044151984 = sum of:
        0.044151984 = product of:
          0.08830397 = sum of:
            0.08830397 = weight(_text_:22 in 5309) [ClassicSimilarity], result of:
              0.08830397 = score(doc=5309,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.5416616 = fieldWeight in 5309, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=5309)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    5. 8.2006 13:07:22
  20. Sperling, R.: Anlage von Literaturreferenzen für Onlineressourcen auf einer virtuellen Lernplattform (2004) 0.01
    0.014717328 = product of:
      0.044151984 = sum of:
        0.044151984 = product of:
          0.08830397 = sum of:
            0.08830397 = weight(_text_:22 in 4635) [ClassicSimilarity], result of:
              0.08830397 = score(doc=4635,freq=2.0), product of:
                0.16302423 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046554018 = queryNorm
                0.5416616 = fieldWeight in 4635, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4635)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    26.11.2005 18:39:22

Languages

  • d 41
  • e 8
  • hu 1
  • More… Less…

Types