Search (155 results, page 7 of 8)

  • × type_ss:"x"
  1. Sebastian, Y.: Literature-based discovery by learning heterogeneous bibliographic information networks (2017) 0.00
    0.001353075 = product of:
      0.00270615 = sum of:
        0.00270615 = product of:
          0.0054123 = sum of:
            0.0054123 = weight(_text_:a in 535) [ClassicSimilarity], result of:
              0.0054123 = score(doc=535,freq=8.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.10191591 = fieldWeight in 535, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=535)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Literature-based discovery (LBD) research aims at finding effective computational methods for predicting previously unknown connections between clusters of research papers from disparate research areas. Existing methods encompass two general approaches. The first approach searches for these unknown connections by examining the textual contents of research papers. In addition to the existing textual features, the second approach incorporates structural features of scientific literatures, such as citation structures. These approaches, however, have not considered research papers' latent bibliographic metadata structures as important features that can be used for predicting previously unknown relationships between them. This thesis investigates a new graph-based LBD method that exploits the latent bibliographic metadata connections between pairs of research papers. The heterogeneous bibliographic information network is proposed as an efficient graph-based data structure for modeling the complex relationships between these metadata. In contrast to previous approaches, this method seamlessly combines textual and citation information in the form of pathbased metadata features for predicting future co-citation links between research papers from disparate research fields. The results reported in this thesis provide evidence that the method is effective for reconstructing the historical literature-based discovery hypotheses. This thesis also investigates the effects of semantic modeling and topic modeling on the performance of the proposed method. For semantic modeling, a general-purpose word sense disambiguation technique is proposed to reduce the lexical ambiguity in the title and abstract of research papers. The experimental results suggest that the reduced lexical ambiguity did not necessarily lead to a better performance of the method. This thesis discusses some of the possible contributing factors to these results. Finally, topic modeling is used for learning the latent topical relations between research papers. The learned topic model is incorporated into the heterogeneous bibliographic information network graph and allows new predictive features to be learned. The results in this thesis suggest that topic modeling improves the performance of the proposed method by increasing the overall accuracy for predicting the future co-citation links between disparate research papers.
    Footnote
    A thesis submitted in ful llment of the requirements for the degree of Doctor of Philosophy Monash University, Faculty of Information Technology.
  2. Hannech, A.: Système de recherche d'information étendue basé sur une projection multi-espaces (2018) 0.00
    0.0013101093 = product of:
      0.0026202186 = sum of:
        0.0026202186 = product of:
          0.005240437 = sum of:
            0.005240437 = weight(_text_:a in 4472) [ClassicSimilarity], result of:
              0.005240437 = score(doc=4472,freq=30.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.09867966 = fieldWeight in 4472, product of:
                  5.477226 = tf(freq=30.0), with freq of:
                    30.0 = termFreq=30.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Depuis son apparition au début des années 90, le World Wide Web (WWW ou Web) a offert un accès universel aux connaissances et le monde de l'information a été principalement témoin d'une grande révolution (la révolution numérique). Il est devenu rapidement très populaire, ce qui a fait de lui la plus grande et vaste base de données et de connaissances existantes grâce à la quantité et la diversité des données qu'il contient. Cependant, l'augmentation et l'évolution considérables de ces données soulèvent d'importants problèmes pour les utilisateurs notamment pour l'accès aux documents les plus pertinents à leurs requêtes de recherche. Afin de faire face à cette explosion exponentielle du volume de données et faciliter leur accès par les utilisateurs, différents modèles sont proposés par les systèmes de recherche d'information (SRIs) pour la représentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et récupérer ces documents, des mots-clés simples qui ne sont pas sémantiquement liés. Cela engendre des limites en termes de la pertinence et de la facilité d'exploration des résultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intégrant des mots-clés externes provenant de différentes sources. Cependant, ces systèmes souffrent encore de limitations qui sont liées aux techniques d'exploitation de ces sources d'enrichissement. Lorsque les différentes sources sont utilisées de telle sorte qu'elles ne peuvent être distinguées par le système, cela limite la flexibilité des modèles d'exploration qui peuvent être appliqués aux résultats de recherche retournés par ce système. Les utilisateurs se sentent alors perdus devant ces résultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sélectionner l'information pertinente. S'ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requêtes de recherche jusqu'à parvenir aux documents qui répondent le mieux à leurs attentes. De cette façon, même si les systèmes parviennent à retrouver davantage des résultats pertinents, leur présentation reste problématique. Afin de cibler la recherche à des besoins d'information plus spécifiques de l'utilisateur et améliorer la pertinence et l'exploration de ses résultats de recherche, les SRIs avancés adoptent différentes techniques de personnalisation de données qui supposent que la recherche actuelle d'un utilisateur est directement liée à son profil et/ou à ses expériences de navigation/recherche antérieures. Cependant, cette hypothèse ne tient pas dans tous les cas, les besoins de l'utilisateur évoluent au fil du temps et peuvent s'éloigner de ses intérêts antérieurs stockés dans son profil.
    Dans d'autres cas, le profil de l'utilisateur peut être mal exploité pour extraire ou inférer ses nouveaux besoins en information. Ce problème est beaucoup plus accentué avec les requêtes ambigües. Lorsque plusieurs centres d'intérêt auxquels est liée une requête ambiguë sont identifiés dans le profil de l'utilisateur, le système se voit incapable de sélectionner les données pertinentes depuis ce profil pour répondre à la requête. Ceci a un impact direct sur la qualité des résultats fournis à cet utilisateur. Afin de remédier à quelques-unes de ces limitations, nous nous sommes intéressés dans ce cadre de cette thèse de recherche au développement de techniques destinées principalement à l'amélioration de la pertinence des résultats des SRIs actuels et à faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basée sur un nouveau concept d'indexation et de recherche d'information appelé la projection multi-espaces. Cette proposition repose sur l'exploitation de différentes catégories d'information sémantiques et sociales qui permettent d'enrichir l'univers de représentation des documents et des requêtes de recherche en plusieurs dimensions d'interprétations. L'originalité de cette représentation est de pouvoir distinguer entre les différentes interprétations utilisées pour la description et la recherche des documents. Ceci donne une meilleure visibilité sur les résultats retournés et aide à apporter une meilleure flexibilité de recherche et d'exploration, en donnant à l'utilisateur la possibilité de naviguer une ou plusieurs vues de données qui l'intéressent le plus. En outre, les univers multidimensionnels de représentation proposés pour la description des documents et l'interprétation des requêtes de recherche aident à améliorer la pertinence des résultats de l'utilisateur en offrant une diversité de recherche/exploration qui aide à répondre à ses différents besoins et à ceux des autres différents utilisateurs. Cette étude exploite différents aspects liés à la recherche personnalisée et vise à résoudre les problèmes engendrés par l'évolution des besoins en information de l'utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisé par notre système, une technique est proposée et employée pour identifier les intérêts les plus représentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, fréquentiel et temporel des données. La capacité des utilisateurs à interagir, à échanger des idées et d'opinions, et à former des réseaux sociaux sur le Web, a amené les systèmes à s'intéresser aux types d'interactions de ces utilisateurs, au niveau d'interaction entre eux ainsi qu'à leurs rôles sociaux dans le système. Ces informations sociales sont abordées et intégrées dans ce travail de recherche. L'impact et la manière de leur intégration dans le processus de RI sont étudiés pour améliorer la pertinence des résultats.
    Since its appearance in the early 90's, the World Wide Web (WWW or Web) has provided universal access to knowledge and the world of information has been primarily witness to a great revolution (the digital revolution). It quickly became very popular, making it the largest and most comprehensive database and knowledge base thanks to the amount and diversity of data it contains. However, the considerable increase and evolution of these data raises important problems for users, in particular for accessing the documents most relevant to their search queries. In order to cope with this exponential explosion of data volume and facilitate their access by users, various models are offered by information retrieval systems (IRS) for the representation and retrieval of web documents. Traditional SRIs use simple keywords that are not semantically linked to index and retrieve these documents. This creates limitations in terms of the relevance and ease of exploration of results. To overcome these limitations, existing techniques enrich documents by integrating external keywords from different sources. However, these systems still suffer from limitations that are related to the exploitation techniques of these sources of enrichment. When the different sources are used so that they cannot be distinguished by the system, this limits the flexibility of the exploration models that can be applied to the results returned by this system. Users then feel lost to these results, and find themselves forced to filter them manually to select the relevant information. If they want to go further, they must reformulate and target their search queries even more until they reach the documents that best meet their expectations. In this way, even if the systems manage to find more relevant results, their presentation remains problematic. In order to target research to more user-specific information needs and improve the relevance and exploration of its research findings, advanced SRIs adopt different data personalization techniques that assume that current research of user is directly related to his profile and / or previous browsing / search experiences.
    However, this assumption does not hold in all cases, the needs of the user evolve over time and can move away from his previous interests stored in his profile. In other cases, the user's profile may be misused to extract or infer new information needs. This problem is much more accentuated with ambiguous queries. When multiple POIs linked to a search query are identified in the user's profile, the system is unable to select the relevant data from that profile to respond to that request. This has a direct impact on the quality of the results provided to this user. In order to overcome some of these limitations, in this research thesis, we have been interested in the development of techniques aimed mainly at improving the relevance of the results of current SRIs and facilitating the exploration of major collections of documents. To do this, we propose a solution based on a new concept and model of indexing and information retrieval called multi-spaces projection. This proposal is based on the exploitation of different categories of semantic and social information that enrich the universe of document representation and search queries in several dimensions of interpretations. The originality of this representation is to be able to distinguish between the different interpretations used for the description and the search for documents. This gives a better visibility on the results returned and helps to provide a greater flexibility of search and exploration, giving the user the ability to navigate one or more views of data that interest him the most. In addition, the proposed multidimensional representation universes for document description and search query interpretation help to improve the relevance of the user's results by providing a diversity of research / exploration that helps meet his diverse needs and those of other different users. This study exploits different aspects that are related to the personalized search and aims to solve the problems caused by the evolution of the information needs of the user. Thus, when the profile of this user is used by our system, a technique is proposed and used to identify the interests most representative of his current needs in his profile. This technique is based on the combination of three influential factors, including the contextual, frequency and temporal factor of the data. The ability of users to interact, exchange ideas and opinions, and form social networks on the Web, has led systems to focus on the types of interactions these users have at the level of interaction between them as well as their social roles in the system. This social information is discussed and integrated into this research work. The impact and how they are integrated into the IR process are studied to improve the relevance of the results.
  3. Lenes, V.: ¬Ein Vergleich feministischer Thesauri am Beispiel der thesaurA und des Feministischen Thesaurus des FrauenMediaTurm (2002) 0.00
    0.0011959607 = product of:
      0.0023919214 = sum of:
        0.0023919214 = product of:
          0.0047838427 = sum of:
            0.0047838427 = weight(_text_:a in 3318) [ClassicSimilarity], result of:
              0.0047838427 = score(doc=3318,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.090081796 = fieldWeight in 3318, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3318)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im Rahmen der virtuellen Lehrveranstaltung "Frauen in Bibliotheken und Informationseinrichtungen" wollte ich mich zunächst mit der Dewey Decimal Classification und dem feministischen Projekt von Hope A. Olson, der femDDC beschäftigen. Die DDC erhebt den Anspruch einer Universalklassifikation und wird im Großteil der amerikanischen Bibliotheken eingesetzt. Hope Olson versuchte in ihrem Projekt, die DDC dahingehend zu ergänzen und zu verändern, dass die DDC nicht länger Frauen unf Frauenthemen diskriminiert. Leider stellte sich bei der persönlichen Kontaktaufnahme mit Hope A. Olson heraus, dass das Projekt bis auf weiteres nicht fortgeführt wird und auch die bisher erzielten Ergebnisse nicht einsehbar sind. Ansonsten droht eine Klage von OCLC, den Rechtinhabern der DDC, die ihr Urheberrecht verletzt sehen. So entschloss ich mich vergleichbaren österreichischen bzw. deutschsprachigen Projekten zuzuwenden. In Europa ist die DDC nicht so stark verbreitet wie in den USA, deswegen führte meine Recherche weg von Klassifikationen, hin zur inhaltlichen Erschließung mittels Thesauri, Schlagwortnormdateien, etc. Ähnlich wie in der Aufstellungssystematik birgt auch die inhaltliche Erschließung die Gefahr der bewussten oder unbewussten Diskriminierung durch die BibliothekarInnen. Durch die Erschließung wird Literatur wiederauffindbar gemacht und zugeordnet, oder aber es geschieht das Gegenteil: Die beschlagworteten Dokumente werden unsichtbar gemacht oder "ghettoisiert". Im folgenden möchte ich die beiden deutschsprachigen, feministischen Thesauri, die dem obengenannten Problem entgegewirken möchten, vorstellen und vergleichen: die thesaurA und den feministischen Thesaurus des FrauenMediaTurm.
  4. Oehler, A.: Informationssuche im Internet : In welchem Ausmaß entsprechen existierende Suchwerkzeuge für das World Wide Web Anforderungen für die wissenschaftliche Suche (1998) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 826) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=826,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=826)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  5. Höllstin, A.: Bibliotheks- und Informationskompetenz (Bibliographic Instruction und Information Literacy) : Fallstudie über eine amerikanische Universitätsbibliothek basierend auf theoretischen Grundlagen und praktischen Anleitungen (Workbooks) (1997) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 1485) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=1485,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 1485, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1485)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  6. Brumm, A.: Modellierung eines Informationssystems zum Bühnentanz als semantisches Wiki (2010) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 4025) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=4025,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 4025, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4025)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  7. Christensen, A.: Virtuelle Auskunft mit Mehrwert : Chatbots in Bibliotheken (2008) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 4030) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=4030,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 4030, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4030)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  8. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 1784) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=1784,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 1784, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1784)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Footnote
    Masterarbeit zur Erlangung des akademischen Grades Master of Arts (M. A.)
  9. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.00
    0.0011839407 = product of:
      0.0023678814 = sum of:
        0.0023678814 = product of:
          0.0047357627 = sum of:
            0.0047357627 = weight(_text_:a in 5496) [ClassicSimilarity], result of:
              0.0047357627 = score(doc=5496,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.089176424 = fieldWeight in 5496, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5496)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    The digitalization of research enables new scientific insights and methods, especially in the humanities. Nonetheless, electronic book editions, encyclopedias, mobile applications or web sites presenting research projects are not in broad use in academic philosophy. This is contradictory to the large amount of helpful tools facilitating research also bearing new scientific subjects and approaches. A possible solution to this dilemma is the systematization and promotion of these tools in order to improve their accessibility and fully exploit the potential of digitalization for philosophy.
  10. Helmbrecht-Schaar, A.: Entwicklung eines Verfahrens der automatischen Klassifizierung für Textdokumente aus dem Fachbereich Informatik mithilfe eines fachspezifischen Klassifikationssystems (2007) 0.00
    0.0010148063 = product of:
      0.0020296127 = sum of:
        0.0020296127 = product of:
          0.0040592253 = sum of:
            0.0040592253 = weight(_text_:a in 1410) [ClassicSimilarity], result of:
              0.0040592253 = score(doc=1410,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.07643694 = fieldWeight in 1410, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1410)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  11. Mao, M.: Ontology mapping : towards semantic interoperability in distributed and heterogeneous environments (2008) 0.00
    9.567685E-4 = product of:
      0.001913537 = sum of:
        0.001913537 = product of:
          0.003827074 = sum of:
            0.003827074 = weight(_text_:a in 4659) [ClassicSimilarity], result of:
              0.003827074 = score(doc=4659,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.072065435 = fieldWeight in 4659, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4659)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    This dissertation studies ontology mapping: the problem of finding semantic correspondences between similar elements of different ontologies. In the dissertation, elements denote classes or properties of ontologies. The goal of this research is to use ontology mapping to make heterogeneous information more accessible. The World Wide Web (WWW) now is widely used as a universal medium for information exchange. Semantic interoperability among different information systems in the WWW is limited due to information heterogeneity, and the non semantic nature of HTML and URLs. Ontologies have been suggested as a way to solve the problem of information heterogeneity by providing formal, explicit definitions of data and reasoning ability over related concepts. Given that no universal ontology exists for the WWW, work has focused on finding semantic correspondences between similar elements of different ontologies, i.e., ontology mapping. Ontology mapping can be done either by hand or using automated tools. Manual mapping becomes impractical as the size and complexity of ontologies increases. Full or semi-automated mapping approaches have been examined by several research studies. Previous full or semiautomated mapping approaches include analyzing linguistic information of elements in ontologies, treating ontologies as structural graphs, applying heuristic rules and machine learning techniques, and using probabilistic and reasoning methods etc. In this paper, two generic ontology mapping approaches are proposed. One is the PRIOR+ approach, which utilizes both information retrieval and artificial intelligence techniques in the context of ontology mapping. The other is the non-instance learning based approach, which experimentally explores machine learning algorithms to solve ontology mapping problem without requesting any instance. The results of the PRIOR+ on different tests at OAEI ontology matching campaign 2007 are encouraging. The non-instance learning based approach has shown potential for solving ontology mapping problem on OAEI benchmark tests.
  12. Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015) 0.00
    9.567685E-4 = product of:
      0.001913537 = sum of:
        0.001913537 = product of:
          0.003827074 = sum of:
            0.003827074 = weight(_text_:a in 2283) [ClassicSimilarity], result of:
              0.003827074 = score(doc=2283,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.072065435 = fieldWeight in 2283, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2283)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
  13. Poser, M.: Analyse und Bewertung ausgewählter Funktionen von ALEPH-Katalogen in Bezug auf Anforderungen und Erwartungen aus Benutzersicht (2008) 0.00
    9.567685E-4 = product of:
      0.001913537 = sum of:
        0.001913537 = product of:
          0.003827074 = sum of:
            0.003827074 = weight(_text_:a in 3269) [ClassicSimilarity], result of:
              0.003827074 = score(doc=3269,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.072065435 = fieldWeight in 3269, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3269)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Arts (B. A.) im Studiengang Bibliotheks- und Informationswissenschaft Philosophische Fakultät I. Vgl. unter: http://www.agi-imc.de/internet.nsf/26efb65f701b0871c125751a00413614/fc471b3b08c89850c125788e004b5270/$FILE/Myriam_Poser.pdf.
    Location
    A
  14. Zedelmaier, H.: Bibliotheca universalis und bibliotheca selecta : das Problem der Ordnung des gelehrten Wissens in der frühen Neuzeit (1992) 0.00
    9.567685E-4 = product of:
      0.001913537 = sum of:
        0.001913537 = product of:
          0.003827074 = sum of:
            0.003827074 = weight(_text_:a in 3932) [ClassicSimilarity], result of:
              0.003827074 = score(doc=3932,freq=4.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.072065435 = fieldWeight in 3932, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3932)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Classification
    All A 91 / Enzyklopädismus
    SBB
    All A 91 / Enzyklopädismus
  15. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.00
    8.78848E-4 = product of:
      0.001757696 = sum of:
        0.001757696 = product of:
          0.003515392 = sum of:
            0.003515392 = weight(_text_:a in 585) [ClassicSimilarity], result of:
              0.003515392 = score(doc=585,freq=6.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06619633 = fieldWeight in 585, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=585)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Im fünften Kapitel wurden die neuen Suchmaschinen, die ausschließlich auf dem Konzept der Topic Maps basieren und diese Technik auch tatsächlich verwenden, angesprochen und mit Beispielanfragen erläutert. In dieser Diplomarbeit wurden wegen dem großen Einsatzpotential von Topic Maps, viele Gebiete angesprochen, angefangen bei den Webkatalogen über Suchmaschinen bis hin zum E-Learning. Mit XML Topic Maps gibt man den Beziehungen zwischen den verschiedenen Topics die Chance sich auszuzeichnen. Damit erreicht die Suche eine neue, bis dahin unmögliche Qualität. Mit einer Topic Map lassen sich beispielsweise die klassischen Navigationselemente technischer Dokumentation (Inhalt, Index, Glossar etc.) in einheitlicher Weise beschreiben; eine andere Topic Map könnte die inhaltliche Vernetzung von Artikeln in einem Lexikon ausdrücken (z.B. Person A wurde geboren in Stadt B, B liegt in Land C, Oper D wurde komponiert von A, Person E war Zeitgenosse von A) und für "siehe auch"-Verweise sorgen (andere Werke dieses Komponisten, andere Städte in diesem Land etc.). Es klingt wie die Lösung aller Suchprobleme. Allerdings nur in der Theorie. Denn Tools, die in der Lage sind, das Wissen oder die Riesendaten in Topicmaps automatisch zu generieren, sind noch Mangelware, was die Ausbreitung von Topic Maps hemmt. Der Aufbau solcher Netze erfordert sehr viel Zeit und sehr viel "Handarbeit" - und damit auch viel Geld, was viele Firmen davon abhält Topic Maps zu benutzen.
  16. Roth, A.: Modellierung und Anwendung von Ontologien am Beispiel "Operations Research & Management Science" (2002) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 5011) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=5011,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 5011, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5011)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  17. Nau, A.-C.: Begutachtungen zur Belletristik im ekz-Informationsdienst : Funktion und Qualität (2007) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 1406) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=1406,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 1406, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1406)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  18. Meyer, A.: Begriffsrelationen im Kategoriensystem der Wikipedia : Entwicklung eines Relationeninventars zur kollaborativen Anwendung (2010) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 4429) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=4429,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 4429, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4429)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  19. Waldhör, A.: Erstellung einer Konkordanz zwischen Basisklassifikation (BK) und Regensburger Verbundklassifikation (RVK) für den Fachbereich Recht (2012) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 596) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=596,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 596, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=596)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  20. Knitel, M.: ¬The application of linked data principles to library data : opportunities and challenges (2012) 0.00
    8.4567186E-4 = product of:
      0.0016913437 = sum of:
        0.0016913437 = product of:
          0.0033826875 = sum of:
            0.0033826875 = weight(_text_:a in 599) [ClassicSimilarity], result of:
              0.0033826875 = score(doc=599,freq=2.0), product of:
                0.053105544 = queryWeight, product of:
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.046056706 = queryNorm
                0.06369744 = fieldWeight in 599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.153047 = idf(docFreq=37942, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=599)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Location
    A

Languages

  • d 110
  • e 39
  • f 2
  • a 1
  • hu 1
  • pt 1
  • More… Less…

Types