Search (158 results, page 1 of 8)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.24
    0.2355185 = product of:
      0.471037 = sum of:
        0.11775925 = product of:
          0.35327774 = sum of:
            0.35327774 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.35327774 = score(doc=973,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.35327774 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.35327774 = score(doc=973,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(2/4)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.17
    0.1735557 = sum of:
      0.039253086 = product of:
        0.11775925 = sum of:
          0.11775925 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
            0.11775925 = score(doc=701,freq=2.0), product of:
              0.31429395 = queryWeight, product of:
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.03707166 = queryNorm
              0.3746787 = fieldWeight in 701, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.478011 = idf(docFreq=24, maxDocs=44218)
                0.03125 = fieldNorm(doc=701)
        0.33333334 = coord(1/3)
      0.11775925 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
        0.11775925 = score(doc=701,freq=2.0), product of:
          0.31429395 = queryWeight, product of:
            8.478011 = idf(docFreq=24, maxDocs=44218)
            0.03707166 = queryNorm
          0.3746787 = fieldWeight in 701, product of:
            1.4142135 = tf(freq=2.0), with freq of:
              2.0 = termFreq=2.0
            8.478011 = idf(docFreq=24, maxDocs=44218)
            0.03125 = fieldNorm(doc=701)
      0.012338492 = product of:
        0.024676984 = sum of:
          0.024676984 = weight(_text_:web in 701) [ClassicSimilarity], result of:
            0.024676984 = score(doc=701,freq=4.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.2039694 = fieldWeight in 701, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=701)
        0.5 = coord(1/2)
      0.004204865 = product of:
        0.021024324 = sum of:
          0.021024324 = weight(_text_:28 in 701) [ClassicSimilarity], result of:
            0.021024324 = score(doc=701,freq=2.0), product of:
              0.13280044 = queryWeight, product of:
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.03707166 = queryNorm
              0.15831517 = fieldWeight in 701, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5822632 = idf(docFreq=3342, maxDocs=44218)
                0.03125 = fieldNorm(doc=701)
        0.2 = coord(1/5)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Date
    31. 3.2013 15:20:28
    Theme
    Semantic Web
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.16
    0.1613661 = product of:
      0.21515481 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.14719906 = score(doc=4997,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.14719906 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.14719906 = score(doc=4997,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.01888938 = product of:
          0.03777876 = sum of:
            0.03777876 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
              0.03777876 = score(doc=4997,freq=6.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.3122631 = fieldWeight in 4997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.16
    0.15663 = product of:
      0.20884 = sum of:
        0.17663887 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.17663887 = score(doc=563,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.026173891 = product of:
          0.052347783 = sum of:
            0.052347783 = weight(_text_:web in 563) [ClassicSimilarity], result of:
              0.052347783 = score(doc=563,freq=8.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.43268442 = fieldWeight in 563, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
        0.0060272375 = product of:
          0.030136187 = sum of:
            0.030136187 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.030136187 = score(doc=563,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.75 = coord(3/4)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.16
    0.15537842 = product of:
      0.20717122 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.14719906 = score(doc=4388,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.14719906 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.14719906 = score(doc=4388,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.010905789 = product of:
          0.021811578 = sum of:
            0.021811578 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
              0.021811578 = score(doc=4388,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.18028519 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  6. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.16
    0.15537842 = product of:
      0.20717122 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.14719906 = score(doc=1000,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.14719906 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.14719906 = score(doc=1000,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.010905789 = product of:
          0.021811578 = sum of:
            0.021811578 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
              0.021811578 = score(doc=1000,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.18028519 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.75 = coord(3/4)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  7. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.10
    0.1028949 = product of:
      0.2057898 = sum of:
        0.039253086 = product of:
          0.11775925 = sum of:
            0.11775925 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.11775925 = score(doc=5820,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.16653672 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.16653672 = score(doc=5820,freq=4.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(2/4)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  8. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.10
    0.098132715 = product of:
      0.19626543 = sum of:
        0.049066357 = product of:
          0.14719906 = sum of:
            0.14719906 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.14719906 = score(doc=855,freq=2.0), product of:
                0.31429395 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.14719906 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.14719906 = score(doc=855,freq=2.0), product of:
            0.31429395 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03707166 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  9. Amon, H.: Optimierung von Webseiten für Suchmaschinen und Kataloge : Empfehlungen zur Optimierung der Web-Seiten der Bibliothek und Dokumentation der Deutschen Gesellschaft für Auswärtige Politik (DGAP) (2004) 0.05
    0.050235532 = product of:
      0.20094213 = sum of:
        0.20094213 = sum of:
          0.052347783 = weight(_text_:web in 4626) [ClassicSimilarity], result of:
            0.052347783 = score(doc=4626,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.43268442 = fieldWeight in 4626, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.09375 = fieldNorm(doc=4626)
          0.14859435 = weight(_text_:seiten in 4626) [ClassicSimilarity], result of:
            0.14859435 = score(doc=4626,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.7289928 = fieldWeight in 4626, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.09375 = fieldNorm(doc=4626)
      0.25 = coord(1/4)
    
  10. Hoeffken, P.: Kollaborative Ansätze zur Vereinheitlichung von Namensformen in LibraryThing.com (2009) 0.03
    0.029304061 = product of:
      0.117216244 = sum of:
        0.117216244 = sum of:
          0.03053621 = weight(_text_:web in 2221) [ClassicSimilarity], result of:
            0.03053621 = score(doc=2221,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.25239927 = fieldWeight in 2221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2221)
          0.08668003 = weight(_text_:seiten in 2221) [ClassicSimilarity], result of:
            0.08668003 = score(doc=2221,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.4252458 = fieldWeight in 2221, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.0546875 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Abstract
    LibraryThing.com ist eine Web 2.0 Anwendung, die sich der Community-Bildung verschrieben hat und dazu (Privat-)Bibliotheken ins Zentrum stellt. Die Nutzer erstellen dabei die Inhalte der Kataloge einerseits durch Import von Daten, andererseits durch eigenständige Eingabe. Dabei werden auch zu Autoren Seiten angelegt, die die Nutzer mit diversen Daten anreichern können. In dieser Arbeit werden diese Bestrebungen hinsichtlich der Autorenseiten dargestellt und mit der Personennamendatei der Deutschen Nationalbibliothek verglichen. Dabei wird aufgezeigt, welche Unterschiede und Gemeinsamkeiten bestehen. Schließlich wird untersucht in welcher Form in LibraryThing Inhalte generiert werden und ob sie fachlichen Ansprüchen an Bibliothekskataloge genügen können.
  11. Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005) 0.02
    0.021890016 = product of:
      0.087560065 = sum of:
        0.087560065 = product of:
          0.17512013 = sum of:
            0.17512013 = weight(_text_:seiten in 868) [ClassicSimilarity], result of:
              0.17512013 = score(doc=868,freq=16.0), product of:
                0.20383513 = queryWeight, product of:
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03707166 = queryNorm
                0.8591263 = fieldWeight in 868, product of:
                  4.0 = tf(freq=16.0), with freq of:
                    16.0 = termFreq=16.0
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=868)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
  12. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.02
    0.021874327 = product of:
      0.08749731 = sum of:
        0.08749731 = sum of:
          0.017449262 = weight(_text_:web in 866) [ClassicSimilarity], result of:
            0.017449262 = score(doc=866,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.14422815 = fieldWeight in 866, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=866)
          0.07004805 = weight(_text_:seiten in 866) [ClassicSimilarity], result of:
            0.07004805 = score(doc=866,freq=4.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.34365052 = fieldWeight in 866, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03125 = fieldNorm(doc=866)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
  13. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.02
    0.021874327 = product of:
      0.08749731 = sum of:
        0.08749731 = sum of:
          0.017449262 = weight(_text_:web in 897) [ClassicSimilarity], result of:
            0.017449262 = score(doc=897,freq=2.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.14422815 = fieldWeight in 897, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=897)
          0.07004805 = weight(_text_:seiten in 897) [ClassicSimilarity], result of:
            0.07004805 = score(doc=897,freq=4.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.34365052 = fieldWeight in 897, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03125 = fieldNorm(doc=897)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  14. Düring, M.: ¬Die Dewey Decimal Classification : Entstehung, Aufbau und Ausblick auf eine Nutzung in deutschen Bibliotheken (2003) 0.02
    0.017989926 = product of:
      0.035979852 = sum of:
        0.030957155 = product of:
          0.06191431 = sum of:
            0.06191431 = weight(_text_:seiten in 2460) [ClassicSimilarity], result of:
              0.06191431 = score(doc=2460,freq=2.0), product of:
                0.20383513 = queryWeight, product of:
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03707166 = queryNorm
                0.303747 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.5 = coord(1/2)
        0.0050226985 = product of:
          0.025113491 = sum of:
            0.025113491 = weight(_text_:22 in 2460) [ClassicSimilarity], result of:
              0.025113491 = score(doc=2460,freq=2.0), product of:
                0.12981863 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03707166 = queryNorm
                0.19345059 = fieldWeight in 2460, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2460)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Die ständig steigende Zahl an publizierter Information in immer neuen Formen verlangt besonders von Informations- und Dokumentationseinrichtungen immer präzisere Lösungen zur Erschließung dieser Informationen und ihrer benutzerfreundlichen Aufbereitung. Besonders im derzeitigen Zeitalter der Datenbanken und Online-Kataloge ist die Kombination von verbaler und klassifikatorischer Sacherschließung gefordert, ohne dabei die Verbindung zu den älteren, vielerorts noch (zumindest zusätzlich) in Verwendung befindlichen, Zettelkatalogen zu verlieren. Weltweit ist eine Vielzahl an verschiedenen Klassifikationen im Einsatz. Die Wahl der für eine Einrichtung passenden Klassifikation ist abhängig von ihrer thematischen und informationellen Ausrichtung, der Größe und Art der Bestände und nicht zuletzt von technischen und personellen Voraussetzungen. Auf Seiten der zu wählenden Klassifikation sind die Einfachheit der Handhabung für den Bibliothekar, die Verständlichkeit für den Benutzer, die Erweiterungsfähigkeit der Klassifikation durch das Aufkommen neuer Wissensgebiete und die Einbindung in informationelle Netze mit anderen Einrichtungen von entscheidender Bedeutung. In dieser Arbeit soll die Dewey Dezimalklassifikation (DDC) hinsichtlich dieser Punkte näher beleuchtet werden. Sie ist die weltweit am häufigsten benutzte Klassifikation. Etwa 200.000 Bibliotheken in 135 Ländern erschließen ihre Bestände mit diesem System. Sie liegt derzeit bereits in der 22. ungekürzten Auflage vor und wurde bisher in 30 Sprachen übersetzt. Eine deutsche Komplettübersetzung wird im Jahre 2005 erscheinen. Trotz teils heftig geführter Standardisierungsdebatten und Plänen für die Übernahme von amerikanischen Formalerschließungsregeln herrscht in Bezug auf die Sacherschließung unter deutschen Bibliotheken wenig Einigkeit. Die DDC ist in Deutschland und anderen europäischen Ländern kaum verbreitet, sieht von Großbritannien und von der Verwendung in Bibliografien ab. Diese Arbeit geht demzufolge auf die historischen Gründe dieser Entwicklung ein und wagt einen kurzen Ausblick in die Zukunft der Dezimalklassifikation.
  15. Müller, C.: Allegro im World Wide Web : Programierung eines Interfaces (1997) 0.02
    0.01616187 = product of:
      0.03232374 = sum of:
        0.021811578 = product of:
          0.043623157 = sum of:
            0.043623157 = weight(_text_:web in 1486) [ClassicSimilarity], result of:
              0.043623157 = score(doc=1486,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.36057037 = fieldWeight in 1486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1486)
          0.5 = coord(1/2)
        0.010512163 = product of:
          0.052560814 = sum of:
            0.052560814 = weight(_text_:28 in 1486) [ClassicSimilarity], result of:
              0.052560814 = score(doc=1486,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.39578792 = fieldWeight in 1486, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1486)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Date
    21. 7.1998 10:36:28
  16. Moustafid, Y. El: Semantic Web Techniken für E-Learning (2003) 0.02
    0.01583062 = product of:
      0.06332248 = sum of:
        0.06332248 = sum of:
          0.026173891 = weight(_text_:web in 585) [ClassicSimilarity], result of:
            0.026173891 = score(doc=585,freq=8.0), product of:
              0.12098375 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03707166 = queryNorm
              0.21634221 = fieldWeight in 585, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=585)
          0.037148587 = weight(_text_:seiten in 585) [ClassicSimilarity], result of:
            0.037148587 = score(doc=585,freq=2.0), product of:
              0.20383513 = queryWeight, product of:
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.03707166 = queryNorm
              0.1822482 = fieldWeight in 585, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4984083 = idf(docFreq=491, maxDocs=44218)
                0.0234375 = fieldNorm(doc=585)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit versucht, das Thema "Topic Maps" von verschiedenen Perspektiven zu betrachten. "Topic Maps" sind geordnete Wissensnetze. Sie stellen ein Hilfsmittel dar, um sich in der immer größer werdenden Informationsvielfalt zurechtzufinden und beim Navigieren trotz einer möglichen Informationsüberflutung die Übersicht zu behalten. Wie ein Stichwortverzeichnis in einem guten Fachbuch, helfen sie, die genau gesuchte Information zu finden. Die Tatsache, dass elektronische Informationen in größerem Umfang als die Seiten eines Buches vorliegen und auf heterogenen Plattformen gespeichert sind, zieht die Konsequenz mit sich, dass Topic Maps nicht nur aus einer Liste alphabetisch sortierter Stichworte bestehen. Vielmehr werden mit Hilfe von Topic Maps logische Konzepte entworfen, die Wissensnetze semantisch modellieren. In Zusammenhang mit Topic Maps spricht Tim Berner-Lee von der dritten Revolution des Internets. Die XTM-Arbeitsgruppe wirbt sogar mit dem Slogan "Das GPS des Web". So wie eine Landkarte eine schematische Sicht auf eine reale Landschaft ermöglicht und bestimmte Merkmale der Landschaft (z.B. Städte, Straßen, Flüsse) markiert, sind Topic Map in der Lage wichtige Merkmale eines Informationsbestandes festzuhalten und in Bezug zueinander zu setzen. So wie ein GPS-Empfänger die eigene Position auf der Karte feststellt, kann eine Topic Map die Orientierung in einer virtuellen Welt vernetzter Dokumente herstellen. Das klingt etwas exotisch, hat jedoch durchaus praktische und sehr weit gefächerte Anwendungen.
    In dieser Arbeit wurde zuerst der Übergang von Suchmaschinen zu einem semantischen Web beschrieben. Im zweiten Kapitel wurden die Topic Maps ausführlicher behandelt. Angefangen bei der Geschichte von Topic Maps, über die Entwurfsziele bis hin zu einem XTM-Tutorial . In diesem Tutorial wurden verschiedene Beispiele durchgeführt und die Lineare Topic Map von Ontopia vorgestellt. Abschließend wurde anhand eines Beispiels eine mögliche Realisierung von Topic Maps mit HTML. Das dritte Kapitel wurde den TopicMaps-Tools und Anfragesprachen gewidmet. Es wurden kommerzielle sowie freiverfügbare Tools vorgestellt und miteinander verglichen. Danach wurden die beiden Anfragesprachen Tolog und TMQL eingeführt. Im vierten Kapitel wurden die beiden Einsatzgebiete von Topic Maps behandelt. Das sind zum einen die Webkataloge und die Suchmaschinen. Zum anderen ist es möglich, auch im Rahmen vom E-Learning von dem Konzept der Topic Maps zu profitieren. In diesem Zusammenhang wurde erst der Omnigator von Ontopia vorgestellt. Dann wurde das im Laufe dieser Arbeit entwickelte Topic Maps Tool E-Learning -Tracker ausgeführt und erklärt.
    Trotz alledem bleibt diese Technik keine graue Theorie. Denn obwohl es spürbare Schwierigkeiten auf dem Weg zur Popularität gibt, wird sie eines Tages das Web beherrschen. Microsoft hat sogar versucht, einige Leute und Entwickler von Topic Maps abzuwerben, was ihr missglückt ist. Dies ist als ein Hinweis zu verstehen, dass diese Technik Interesse bei einigen Herrschern in der Informatikindustrie.
  17. Krüger, K.: Suchmaschinen-Spamming : Vergleichend-kritische Analysen zur Wirkung kommerzieller Strategien der Website-Optimierung auf das Ranking in www-Suchmaschinen (2004) 0.02
    0.01532301 = product of:
      0.06129204 = sum of:
        0.06129204 = product of:
          0.12258408 = sum of:
            0.12258408 = weight(_text_:seiten in 3700) [ClassicSimilarity], result of:
              0.12258408 = score(doc=3700,freq=4.0), product of:
                0.20383513 = queryWeight, product of:
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03707166 = queryNorm
                0.6013884 = fieldWeight in 3700, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3700)
          0.5 = coord(1/2)
      0.25 = coord(1/4)
    
    Abstract
    Interne und externe Manipulationen zwischen erlaubter Website-Optimierung und Spam-Methoden mindern die Qualität der Ergebnislisten, und besonders kommerziellen Anbieter ist eine Positionierung unter den TopTen wichtig, weil nur die wenigsten Suchmaschinennutzer mehr als die ersten zehn, maximal zwanzig Treffer beachten. Spamming soll eine Listung unter den ersten Rangpositionen sichern, aber auch Manipulationen werden eingesetzt, um Indizes der Suchmaschinen mit irrelevanten Ergebnissen qualitativ zu verschlechtern. Praktisch analysiert werden AItaVista, Fireball, Google und Lycos auf valide und invalide Treffer, auf Anzahl vermutlich manipulierter Seiten, auf häufigste Spam-Methoden, auf Anteile kommerzieller Links und auf pornographische Seiten.
  18. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.01
    0.014485295 = product of:
      0.02897059 = sum of:
        0.024765724 = product of:
          0.04953145 = sum of:
            0.04953145 = weight(_text_:seiten in 3081) [ClassicSimilarity], result of:
              0.04953145 = score(doc=3081,freq=2.0), product of:
                0.20383513 = queryWeight, product of:
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03707166 = queryNorm
                0.2429976 = fieldWeight in 3081, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4984083 = idf(docFreq=491, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
        0.004204865 = product of:
          0.021024324 = sum of:
            0.021024324 = weight(_text_:28 in 3081) [ClassicSimilarity], result of:
              0.021024324 = score(doc=3081,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.15831517 = fieldWeight in 3081, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Date
    24. 8.2016 13:45:28
  19. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.01
    0.012779264 = product of:
      0.025558528 = sum of:
        0.017449262 = product of:
          0.034898523 = sum of:
            0.034898523 = weight(_text_:web in 2222) [ClassicSimilarity], result of:
              0.034898523 = score(doc=2222,freq=2.0), product of:
                0.12098375 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03707166 = queryNorm
                0.2884563 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.5 = coord(1/2)
        0.008109266 = product of:
          0.040546328 = sum of:
            0.040546328 = weight(_text_:29 in 2222) [ClassicSimilarity], result of:
              0.040546328 = score(doc=2222,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.31092256 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.2 = coord(1/5)
      0.5 = coord(2/4)
    
    Abstract
    Wissenschaftliche Bibliotheken werden heutzutage durch Universalsuchmaschinen wie Google bedroht. Ein Grund hierfür ist, dass Bibliotheken auf Rechercheinstrumente setzen die, die heutigen Erwartungen ihrer Nutzer nicht mehr erfüllen können. Wollen Bibliotheken auch zukünftig eine tragende Rolle spielen, müssen sie die Techniken in ihrer Produkte integrieren, die Suchmaschinen zu ihrem Erfolg im Web verholfen haben.
    Date
    18.10.2015 10:29:56
  20. Semenova, E.: Erstellung einer Dokumentationssprache : Am Beispiel der Oberbegriffsdatei für die Sonderausstellungsdatenbank im Institut für Museumskunde, Berlin (2004) 0.01
    0.012389246 = product of:
      0.049556985 = sum of:
        0.049556985 = product of:
          0.123892464 = sum of:
            0.06307297 = weight(_text_:28 in 1734) [ClassicSimilarity], result of:
              0.06307297 = score(doc=1734,freq=2.0), product of:
                0.13280044 = queryWeight, product of:
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.03707166 = queryNorm
                0.4749455 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5822632 = idf(docFreq=3342, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
            0.06081949 = weight(_text_:29 in 1734) [ClassicSimilarity], result of:
              0.06081949 = score(doc=1734,freq=2.0), product of:
                0.13040651 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03707166 = queryNorm
                0.46638384 = fieldWeight in 1734, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1734)
          0.4 = coord(2/5)
      0.25 = coord(1/4)
    
    Date
    28.11.1999 13:32:29
    27. 9.2005 14:28:14

Languages

  • d 126
  • e 27
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types