Search (112 results, page 1 of 6)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.18
    0.18475185 = product of:
      0.55425555 = sum of:
        0.13856389 = product of:
          0.41569164 = sum of:
            0.41569164 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.41569164 = score(doc=973,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.41569164 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.41569164 = score(doc=973,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.33333334 = coord(2/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Steiner, E.S.: OPAC 2.0 : Mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft? (2007) 0.15
    0.14964941 = product of:
      0.44894823 = sum of:
        0.08212816 = weight(_text_:web in 678) [ClassicSimilarity], result of:
          0.08212816 = score(doc=678,freq=8.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.5769126 = fieldWeight in 678, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
        0.36682007 = weight(_text_:2.0 in 678) [ClassicSimilarity], result of:
          0.36682007 = score(doc=678,freq=16.0), product of:
            0.252991 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.043621145 = queryNorm
            1.4499333 = fieldWeight in 678, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0625 = fieldNorm(doc=678)
      0.33333334 = coord(2/6)
    
    Abstract
    Diese Arbeit besteht im Wesentlichen aus zwei Teilen: Der erste Teil beinhaltet eine Einführung in den Begriff Web 2.0 und in die allgemeinen Rahmenbedingungen der zugehörigen technischen Entwicklungen. Des Weiteren werden exemplarische Techniken vorgestellt, die Web 2.0 zugeschrieben werden können sowie einige beispielhafte Anwendungen. Im zweiten Teil wird die Diskussion um Bibliothek 2.0 aufgegriffen, um anschließend näher auf Web 2.0 Techniken in Bibliothekskatalogen bzw. den OPAC 2.0 einzugehen. Verschiedene Techniken, die im OPAC 2.0 Anwendung finden können, werden diskutiert und zuletzt werden einige beispielhafte OPACs vorgestellt.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.14
    0.14358605 = product of:
      0.2871721 = sum of:
        0.061596118 = weight(_text_:web in 563) [ClassicSimilarity], result of:
          0.061596118 = score(doc=563,freq=8.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.43268442 = fieldWeight in 563, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.20784582 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.20784582 = score(doc=563,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.017730188 = product of:
          0.035460375 = sum of:
            0.035460375 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.035460375 = score(doc=563,freq=2.0), product of:
                0.15275382 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043621145 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.14
    0.1376965 = product of:
      0.275393 = sum of:
        0.05773496 = product of:
          0.17320487 = sum of:
            0.17320487 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.17320487 = score(doc=4997,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.04445317 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
          0.04445317 = score(doc=4997,freq=6.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.3122631 = fieldWeight in 4997, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.17320487 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.17320487 = score(doc=4997,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.5 = coord(3/6)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.13
    0.12830244 = product of:
      0.25660488 = sum of:
        0.05773496 = product of:
          0.17320487 = sum of:
            0.17320487 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.17320487 = score(doc=4388,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.02566505 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
          0.02566505 = score(doc=4388,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.18028519 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.17320487 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.17320487 = score(doc=4388,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5 = coord(3/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.13
    0.12830244 = product of:
      0.25660488 = sum of:
        0.05773496 = product of:
          0.17320487 = sum of:
            0.17320487 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.17320487 = score(doc=1000,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.02566505 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
          0.02566505 = score(doc=1000,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.18028519 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.17320487 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.17320487 = score(doc=1000,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.5 = coord(3/6)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.11
    0.10689427 = product of:
      0.21378854 = sum of:
        0.046187963 = product of:
          0.13856389 = sum of:
            0.13856389 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.13856389 = score(doc=701,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.02903669 = weight(_text_:web in 701) [ClassicSimilarity], result of:
          0.02903669 = score(doc=701,freq=4.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.2039694 = fieldWeight in 701, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.13856389 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.13856389 = score(doc=701,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.5 = coord(3/6)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  8. Toussi, M.: Information Retrieval am Beispiel der Wide Area Information Server (WAIS) und dem World Wide Web (WWW) (1996) 0.09
    0.08639651 = product of:
      0.25918952 = sum of:
        0.18732738 = weight(_text_:wide in 5965) [ClassicSimilarity], result of:
          0.18732738 = score(doc=5965,freq=4.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.9692284 = fieldWeight in 5965, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.109375 = fieldNorm(doc=5965)
        0.07186214 = weight(_text_:web in 5965) [ClassicSimilarity], result of:
          0.07186214 = score(doc=5965,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.50479853 = fieldWeight in 5965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.109375 = fieldNorm(doc=5965)
      0.33333334 = coord(2/6)
    
  9. Ebeid, N.: Kataloganreicherung / user-created content : oder: Wieso funktioniert mein OPAC nicht wie Amazon? (2009) 0.08
    0.08100012 = product of:
      0.24300036 = sum of:
        0.04445317 = weight(_text_:web in 4606) [ClassicSimilarity], result of:
          0.04445317 = score(doc=4606,freq=6.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.3122631 = fieldWeight in 4606, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4606)
        0.19854718 = weight(_text_:2.0 in 4606) [ClassicSimilarity], result of:
          0.19854718 = score(doc=4606,freq=12.0), product of:
            0.252991 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.043621145 = queryNorm
            0.7847994 = fieldWeight in 4606, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4606)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Aufkommen des Web 2.0 im Jahr 2004 signalisierte einen Wechsel in der Internetnutzung. Beim Web 2.0 stehen die Nutzer und deren Informationsbedürfnisse im Mittelpunkt. Dies bedeutet auch für Bibliotheken eine Herausforderung. Der Online-Katalog als zentrale Dienstleistung ist von diesen Änderungen besonders betroffen. Hersteller von Bibliothekssoftware und Bibliotheken sind mit der Tatsache konfrontiert, dass immer mehr Menschen für ihre Informationsanliegen das Internet verwenden und Bibliothekskataloge umgehen. Bibliothekarische Webseiten können oft nicht mit Oberflächen wie denen von Google oder Amazon hinsichtlich Benutzerfreundlichkeit konkurrieren. Um nicht weiter in der Wahrnehmung der Nutzer zurückzufallen müssen Bibliotheken ihre Konzepte und Angebote gründlich analysieren. Das Ziel dieser Arbeit ist es, Schwächen und Probleme von konventionellen Online-Katalogen aufzuzeigen und welche Möglichkeiten es gibt, den OPAC für Nutzer attraktiver zu gestalten. Zuerst werden Informationen zum Thema in einschlägigen Publikationen gesammelt. Im Anschluss erfolgt eine Zusammenfassung und Auswertung der erarbeiteten Literatur. Dann werden einige Hochschulbibliotheken vorgestellt, die in ihren OPACs bereits Web 2.0-Anwendungen anbieten bzw. planen. Außerdem werden qualitative Interviews mit Bibliothekaren durchgeführt, die zuständig sind für einen OPAC 2.0. Mit den in den Interviews getätigten Aussagen soll ein aktueller Stand hinsichtlich OPAC-Entwicklung bezweckt werden. Ein wesentliches Ergebnis dieser Arbeit ist, dass es den OPAC 2.0 nicht gibt, und dass jede Bibliothek spezifische Erfordernisse hat, was einen Online-Katalog anbelangt. Daher wird vorgeschlagen, dass Bibliotheken zunächst sich und ihre Arbeitsumfeld sorgfältig analysieren, insbesondere ihre Zielgruppen. Aufgrund der Tatsache, dass es viele Attribute für einen OPAC 2.0 gibt, sollten Entscheidungsträger in Bibliotheken sorgfältig abwägen, welche Instrumente und Anwendungen erforderlich und sinnvoll sind.
  10. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.08
    0.080715634 = product of:
      0.2421469 = sum of:
        0.046187963 = product of:
          0.13856389 = sum of:
            0.13856389 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.13856389 = score(doc=5820,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.19595893 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.19595893 = score(doc=5820,freq=4.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.33333334 = coord(2/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  11. Glockner, M.: Semantik Web : Die nächste Generation des World Wide Web (2004) 0.08
    0.07802963 = product of:
      0.2340889 = sum of:
        0.13246047 = weight(_text_:wide in 4532) [ClassicSimilarity], result of:
          0.13246047 = score(doc=4532,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.685348 = fieldWeight in 4532, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.109375 = fieldNorm(doc=4532)
        0.101628415 = weight(_text_:web in 4532) [ClassicSimilarity], result of:
          0.101628415 = score(doc=4532,freq=4.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.71389294 = fieldWeight in 4532, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.109375 = fieldNorm(doc=4532)
      0.33333334 = coord(2/6)
    
  12. Schiefer, J.: Aufbau eines internationalen CDS/ISIS Nutzerforums im World Wide Web (1996) 0.08
    0.077837184 = product of:
      0.23351154 = sum of:
        0.15138339 = weight(_text_:wide in 5961) [ClassicSimilarity], result of:
          0.15138339 = score(doc=5961,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.7832548 = fieldWeight in 5961, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.125 = fieldNorm(doc=5961)
        0.08212816 = weight(_text_:web in 5961) [ClassicSimilarity], result of:
          0.08212816 = score(doc=5961,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.5769126 = fieldWeight in 5961, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.125 = fieldNorm(doc=5961)
      0.33333334 = coord(2/6)
    
  13. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.08
    0.07697995 = product of:
      0.23093984 = sum of:
        0.05773496 = product of:
          0.17320487 = sum of:
            0.17320487 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.17320487 = score(doc=855,freq=2.0), product of:
                0.36982056 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.043621145 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.17320487 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.17320487 = score(doc=855,freq=2.0), product of:
            0.36982056 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.043621145 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.33333334 = coord(2/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  14. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.07
    0.066332854 = product of:
      0.13266571 = sum of:
        0.053522114 = weight(_text_:wide in 5938) [ClassicSimilarity], result of:
          0.053522114 = score(doc=5938,freq=4.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.2769224 = fieldWeight in 5938, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.035562538 = weight(_text_:web in 5938) [ClassicSimilarity], result of:
          0.035562538 = score(doc=5938,freq=6.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.24981049 = fieldWeight in 5938, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
        0.043581057 = product of:
          0.087162115 = sum of:
            0.087162115 = weight(_text_:suchmaschine in 5938) [ClassicSimilarity], result of:
              0.087162115 = score(doc=5938,freq=4.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.3533909 = fieldWeight in 5938, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5938)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  15. Hartmann, S.: Inhaltliche Erschließung einer Call-Center-Datenbank : Konzeptentwicklung für die Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB 2.0) (2005) 0.06
    0.0585712 = product of:
      0.1757136 = sum of:
        0.062234443 = weight(_text_:web in 3053) [ClassicSimilarity], result of:
          0.062234443 = score(doc=3053,freq=6.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.43716836 = fieldWeight in 3053, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3053)
        0.11347916 = weight(_text_:2.0 in 3053) [ClassicSimilarity], result of:
          0.11347916 = score(doc=3053,freq=2.0), product of:
            0.252991 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.043621145 = queryNorm
            0.4485502 = fieldWeight in 3053, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3053)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Qualität der Auskünfte in einem Call-Center des Typus Informationshotline wird gewährleistet durch die zentrale Bereitstellung von Informationen zu Produkten und Dienstleistungen eines Unternehmens. Dies kann in Form von Datenbanken, wie die in dieser Arbeit analysierten Kundentelefon-Wissensdatenbank der Deutschen Post AG (KT-WEB), realisiert werden. Damit die Call-Center-Mitarbeiter präzise, schnell und zuverlässig auf die im Kundengespräch relevanten Informationen zugreifen können, müssen die Informationen inhaltlich entsprechend erschlossen sein. Für KT-WEB wird dazu ein Konzept zur Optimierung der inhaltlichen Erschließung und Suche entwickelt, das über die bisher eingesetzten Erschließungsmethoden, Systematik und Volltexterschließung, hinaus geht: eine Erschließung mit facettierten Schlagwörtern.
  16. Timm, A.: Fachinformation in den Bereichen Gentechnologie und Molekularbiologie am Beispiel ausgewählter Datenbanken und Dienstleistungen im World Wide Web (1996) 0.06
    0.058377884 = product of:
      0.17513365 = sum of:
        0.113537535 = weight(_text_:wide in 785) [ClassicSimilarity], result of:
          0.113537535 = score(doc=785,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.5874411 = fieldWeight in 785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.09375 = fieldNorm(doc=785)
        0.061596118 = weight(_text_:web in 785) [ClassicSimilarity], result of:
          0.061596118 = score(doc=785,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.43268442 = fieldWeight in 785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.09375 = fieldNorm(doc=785)
      0.33333334 = coord(2/6)
    
  17. Knitel, M.: ¬The application of linked data principles to library data : opportunities and challenges (2012) 0.06
    0.055746466 = product of:
      0.11149293 = sum of:
        0.04730731 = weight(_text_:wide in 599) [ClassicSimilarity], result of:
          0.04730731 = score(doc=599,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.24476713 = fieldWeight in 599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
        0.02566505 = weight(_text_:web in 599) [ClassicSimilarity], result of:
          0.02566505 = score(doc=599,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.18028519 = fieldWeight in 599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
        0.03852058 = product of:
          0.07704116 = sum of:
            0.07704116 = weight(_text_:suchmaschine in 599) [ClassicSimilarity], result of:
              0.07704116 = score(doc=599,freq=2.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.31235638 = fieldWeight in 599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=599)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Linked Data hat sich im Laufe der letzten Jahre zu einem vorherrschenden Thema der Bibliothekswissenschaft entwickelt. Als ein Standard für Erfassung und Austausch von Daten, bestehen zahlreiche Berührungspunkte mit traditionellen bibliothekarischen Techniken. Diese Arbeit stellt in einem ersten Teil die grundlegenden Technologien dieses neuen Paradigmas vor, um sodann deren Anwendung auf bibliothekarische Daten zu untersuchen. Den zentralen Prinzipien der Linked Data Initiative folgend, werden dabei die Adressierung von Entitäten durch URIs, die Anwendung des RDF Datenmodells und die Verknüpfung von heterogenen Datenbeständen näher beleuchtet. Den dabei zu Tage tretenden Herausforderungen der Sicherstellung von qualitativ hochwertiger Information, der permanenten Adressierung von Inhalten im World Wide Web sowie Problemen der Interoperabilität von Metadatenstandards wird dabei besondere Aufmerksamkeit geschenkt. Der letzte Teil der Arbeit skizziert ein Programm, welches eine mögliche Erweiterung der Suchmaschine des österreichischen Bibliothekenverbundes darstellt. Dessen prototypische Umsetzung erlaubt eine realistische Einschätzung der derzeitigen Möglichkeiten von Linked Data und unterstreicht viele der vorher theoretisch erarbeiteten Themengebiete. Es zeigt sich, dass für den voll produktiven Einsatz von Linked Data noch viele Hürden zu überwinden sind. Insbesondere befinden sich viele Projekte derzeit noch in einem frühen Reifegrad. Andererseits sind die Möglichkeiten, die aus einem konsequenten Einsatz von RDF resultieren würden, vielversprechend. RDF qualifiziert sich somit als Kandidat für den Ersatz von auslaufenden bibliographischen Datenformaten wie MAB oder MARC.
  18. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.05
    0.050979473 = product of:
      0.101958945 = sum of:
        0.037845846 = weight(_text_:wide in 866) [ClassicSimilarity], result of:
          0.037845846 = score(doc=866,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.1958137 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
        0.02053204 = weight(_text_:web in 866) [ClassicSimilarity], result of:
          0.02053204 = score(doc=866,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.14422815 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=866)
        0.043581057 = product of:
          0.087162115 = sum of:
            0.087162115 = weight(_text_:suchmaschine in 866) [ClassicSimilarity], result of:
              0.087162115 = score(doc=866,freq=4.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.3533909 = fieldWeight in 866, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.03125 = fieldNorm(doc=866)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
  19. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.05
    0.049803413 = product of:
      0.14941023 = sum of:
        0.03593107 = weight(_text_:web in 2221) [ClassicSimilarity], result of:
          0.03593107 = score(doc=2221,freq=2.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.25239927 = fieldWeight in 2221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
        0.11347916 = weight(_text_:2.0 in 2221) [ClassicSimilarity], result of:
          0.11347916 = score(doc=2221,freq=2.0), product of:
            0.252991 = queryWeight, product of:
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.043621145 = queryNorm
            0.4485502 = fieldWeight in 2221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.799733 = idf(docFreq=363, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2221)
      0.33333334 = coord(2/6)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
  20. Aprin, L.: Entwicklung eines semantisch operierenden Risikomanagement-Informationssystems am Beispiel der Europäischen Organisation für Kernforschung (CERN) (2012) 0.05
    0.048849497 = product of:
      0.097698994 = sum of:
        0.037845846 = weight(_text_:wide in 2286) [ClassicSimilarity], result of:
          0.037845846 = score(doc=2286,freq=2.0), product of:
            0.19327477 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.043621145 = queryNorm
            0.1958137 = fieldWeight in 2286, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
        0.02903669 = weight(_text_:web in 2286) [ClassicSimilarity], result of:
          0.02903669 = score(doc=2286,freq=4.0), product of:
            0.14235806 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.043621145 = queryNorm
            0.2039694 = fieldWeight in 2286, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.03125 = fieldNorm(doc=2286)
        0.03081646 = product of:
          0.06163292 = sum of:
            0.06163292 = weight(_text_:suchmaschine in 2286) [ClassicSimilarity], result of:
              0.06163292 = score(doc=2286,freq=2.0), product of:
                0.24664505 = queryWeight, product of:
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.043621145 = queryNorm
                0.2498851 = fieldWeight in 2286, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.6542544 = idf(docFreq=420, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2286)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Mit dieser Dissertation wird ein Beitrag zur Überwindung der bestehenden Wissensbarrieren im Risikomanagement vorgelegt. Methodisch wird hierzu die Anwendung semantischer Verfahren zur Repräsentation von Wissen auf die Domäne der Risikoanalyse vorgeschlagen. Im Mittelpunkt steht das sogenannte Semantic Web, das als Weiterentwicklung des World Wide Webs die Bedeutung von Wissenszusammenhängen explizit zu erfassen und abzubilden erlaubt. Zeichnet sich das gegenwärtige Risikomanagement durch eine dokumentengebundene Organisation und Distribution von Wissen aus, werden mit dem Semantic Web Verfahren und Werkzeuge vorgelegt, die eine Operationalisierung des Wissens direkt auf der Datensatzebene ermöglichen. Darauf aufbauend wird das Konzept eines semantisch operierenden Risikomanagement-Informationssystems entworfen. Den Kern dieses Entwurfs bildet die Idee, risikoanalytisch relevantes Wissen nicht nach traditionellem Verständnis als textuelle Berichte oder relationale Datenbankeinträge zu speichern, sondern in Form einer stetig wachsenden Ontologie zu dokumentieren. Zur Gewährleistung eines bedarfsgerechten Zugriffs auf das ontologisch archivierte Wissen wurde das Konzept einer Suchmaschine entwickelt, mit der sich für anstehende Arbeitsvorgänge prüfen lässt, ob zu diesen historisch identische oder ähnliche Arbeitsvorgänge dokumentiert sind, die sich zu kritischen Zwischenfällen entfalteten. Den Risikomanagern wird ein Werkzeug bereitgestellt, das entscheidungsrelevantes Wissen sehr präzise und zeitnah abzufragen erlaubt und damit zu einer verbesserten Adäquatheit der risikoanalytischen Einsichten beiträgt.

Authors

Years

Languages

  • d 84
  • e 24
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types