Search (141 results, page 1 of 8)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.39
    0.38972294 = product of:
      0.7794459 = sum of:
        0.11134942 = product of:
          0.33404824 = sum of:
            0.33404824 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.33404824 = score(doc=973,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.33404824 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33404824 = score(doc=973,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.33404824 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33404824 = score(doc=973,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.25
    0.2455307 = product of:
      0.36829603 = sum of:
        0.16702412 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16702412 = score(doc=563,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.024749206 = product of:
          0.049498413 = sum of:
            0.049498413 = weight(_text_:web in 563) [ClassicSimilarity], result of:
              0.049498413 = score(doc=563,freq=8.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.43268442 = fieldWeight in 563, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
        0.16702412 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16702412 = score(doc=563,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009498609 = product of:
          0.028495826 = sum of:
            0.028495826 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028495826 = score(doc=563,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.23
    0.22842023 = product of:
      0.34263033 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.13918677 = score(doc=4997,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4997,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.017861202 = product of:
          0.035722405 = sum of:
            0.035722405 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
              0.035722405 = score(doc=4997,freq=6.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3122631 = fieldWeight in 4997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
        0.13918677 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4997,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.6666667 = coord(4/6)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.22338754 = product of:
      0.3350813 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.13918677 = score(doc=4388,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4388,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.01031217 = product of:
          0.02062434 = sum of:
            0.02062434 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
              0.02062434 = score(doc=4388,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.18028519 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
        0.13918677 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4388,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.6666667 = coord(4/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  5. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.22
    0.22338754 = product of:
      0.3350813 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.13918677 = score(doc=1000,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13918677 = score(doc=1000,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.01031217 = product of:
          0.02062434 = sum of:
            0.02062434 = weight(_text_:web in 1000) [ClassicSimilarity], result of:
              0.02062434 = score(doc=1000,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.18028519 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
        0.13918677 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.13918677 = score(doc=1000,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.6666667 = coord(4/6)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  6. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.18
    0.18098816 = product of:
      0.27148223 = sum of:
        0.037116475 = product of:
          0.11134942 = sum of:
            0.11134942 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.11134942 = score(doc=701,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.11134942 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11134942 = score(doc=701,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.011666888 = product of:
          0.023333777 = sum of:
            0.023333777 = weight(_text_:web in 701) [ClassicSimilarity], result of:
              0.023333777 = score(doc=701,freq=4.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.2039694 = fieldWeight in 701, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.5 = coord(1/2)
        0.11134942 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.11134942 = score(doc=701,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6666667 = coord(4/6)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
    Theme
    Semantic Web
  7. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.18
    0.1760301 = product of:
      0.3520602 = sum of:
        0.037116475 = product of:
          0.11134942 = sum of:
            0.11134942 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.11134942 = score(doc=5820,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15747185 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15747185 = score(doc=5820,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15747185 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15747185 = score(doc=5820,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(3/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  8. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.16
    0.16238457 = product of:
      0.32476914 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.13918677 = score(doc=855,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13918677 = score(doc=855,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.13918677 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13918677 = score(doc=855,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  9. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.022005301 = product of:
      0.1320318 = sum of:
        0.1320318 = sum of:
          0.046117425 = weight(_text_:web in 115) [ClassicSimilarity], result of:
            0.046117425 = score(doc=115,freq=10.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.40312994 = fieldWeight in 115, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
          0.08591438 = weight(_text_:seite in 115) [ClassicSimilarity], result of:
            0.08591438 = score(doc=115,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.43758303 = fieldWeight in 115, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
      0.16666667 = coord(1/6)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Theme
    Semantic Web
  10. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.012863073 = product of:
      0.07717843 = sum of:
        0.07717843 = sum of:
          0.028577924 = weight(_text_:web in 5938) [ClassicSimilarity], result of:
            0.028577924 = score(doc=5938,freq=6.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.24981049 = fieldWeight in 5938, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03125 = fieldNorm(doc=5938)
          0.048600513 = weight(_text_:seite in 5938) [ClassicSimilarity], result of:
            0.048600513 = score(doc=5938,freq=2.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.24753433 = fieldWeight in 5938, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03125 = fieldNorm(doc=5938)
      0.16666667 = coord(1/6)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  11. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.012722294 = product of:
      0.07633376 = sum of:
        0.07633376 = product of:
          0.11450064 = sum of:
            0.057508986 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.057508986 = score(doc=9,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.05699165 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.05699165 = score(doc=9,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    22. 2.1997 19:50:29
  12. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.01
    0.009759749 = product of:
      0.029279247 = sum of:
        0.01649947 = product of:
          0.03299894 = sum of:
            0.03299894 = weight(_text_:web in 2222) [ClassicSimilarity], result of:
              0.03299894 = score(doc=2222,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.2884563 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.5 = coord(1/2)
        0.012779775 = product of:
          0.038339324 = sum of:
            0.038339324 = weight(_text_:29 in 2222) [ClassicSimilarity], result of:
              0.038339324 = score(doc=2222,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.31092256 = fieldWeight in 2222, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2222)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Wissenschaftliche Bibliotheken werden heutzutage durch Universalsuchmaschinen wie Google bedroht. Ein Grund hierfür ist, dass Bibliotheken auf Rechercheinstrumente setzen die, die heutigen Erwartungen ihrer Nutzer nicht mehr erfüllen können. Wollen Bibliotheken auch zukünftig eine tragende Rolle spielen, müssen sie die Techniken in ihrer Produkte integrieren, die Suchmaschinen zu ihrem Erfolg im Web verholfen haben.
    Date
    18.10.2015 10:29:56
  13. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.01
    0.00848153 = product of:
      0.050889175 = sum of:
        0.050889175 = product of:
          0.07633376 = sum of:
            0.038339324 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.038339324 = score(doc=1409,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.037994437 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.037994437 = score(doc=1409,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  14. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.01
    0.007684536 = product of:
      0.046107214 = sum of:
        0.046107214 = product of:
          0.06916082 = sum of:
            0.040664997 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.040664997 = score(doc=4408,freq=4.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.028495826 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.028495826 = score(doc=4408,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S
  15. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.01
    0.0070875753 = product of:
      0.04252545 = sum of:
        0.04252545 = product of:
          0.0850509 = sum of:
            0.0850509 = weight(_text_:seite in 2192) [ClassicSimilarity], result of:
              0.0850509 = score(doc=2192,freq=2.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.4331851 = fieldWeight in 2192, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2192)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  16. Glockner, M.: Semantik Web : Die nächste Generation des World Wide Web (2004) 0.01
    0.0068056853 = product of:
      0.04083411 = sum of:
        0.04083411 = product of:
          0.08166822 = sum of:
            0.08166822 = weight(_text_:web in 4532) [ClassicSimilarity], result of:
              0.08166822 = score(doc=4532,freq=4.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.71389294 = fieldWeight in 4532, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4532)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
  17. Bertram, J.: Informationen verzweifelt gesucht : Enterprise Search in österreichischen Großunternehmen (2011) 0.01
    0.006393859 = product of:
      0.038363155 = sum of:
        0.038363155 = product of:
          0.05754473 = sum of:
            0.023962079 = weight(_text_:29 in 2657) [ClassicSimilarity], result of:
              0.023962079 = score(doc=2657,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.19432661 = fieldWeight in 2657, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
            0.033582654 = weight(_text_:22 in 2657) [ClassicSimilarity], result of:
              0.033582654 = score(doc=2657,freq=4.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.27358043 = fieldWeight in 2657, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2657)
          0.6666667 = coord(2/3)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Arbeit geht dem Status quo der unternehmensweiten Suche in österreichischen Großunternehmen nach und beleuchtet Faktoren, die darauf Einfluss haben. Aus der Analyse des Ist-Zustands wird der Bedarf an Enterprise-Search-Software abgeleitet und es werden Rahmenbedingungen für deren erfolgreiche Einführung skizziert. Die Untersuchung stützt sich auf eine im Jahr 2009 durchgeführte Onlinebefragung von 469 österreichischen Großunternehmen (Rücklauf 22 %) und daran anschließende Leitfadeninterviews mit zwölf Teilnehmern der Onlinebefragung. Der theoretische Teil verortet die Arbeit im Kontext des Informations- und Wissensmanagements. Der Fokus liegt auf dem Ansatz der Enterprise Search, ihrer Abgrenzung gegenüber der Suche im Internet und ihrem Leistungsspektrum. Im empirischen Teil wird zunächst aufgezeigt, wie die Unternehmen ihre Informationen organisieren und welche Probleme dabei auftreten. Es folgt eine Analyse des Status quo der Informati-onssuche im Unternehmen. Abschließend werden Bekanntheit und Einsatz von Enterprise-Search-Software in der Zielgruppe untersucht sowie für die Einführung dieser Software nötige Rahmenbedingungen benannt. Defizite machen die Befragten insbesondere im Hinblick auf die übergreifende Suche im Unternehmen und die Suche nach Kompetenzträgern aus. Hier werden Lücken im Wissensmanagement offenbar. 29 % der Respondenten der Onlinebefragung geben zu-dem an, dass es in ihren Unternehmen gelegentlich bis häufig zu Fehlentscheidungen infolge defizitärer Informationslagen kommt. Enterprise-Search-Software kommt in 17 % der Unternehmen, die sich an der Onlinebefragung beteiligten, zum Einsatz. Die durch Enterprise-Search-Software bewirkten Veränderungen werden grundsätzlich posi-tiv beurteilt. Alles in allem zeigen die Ergebnisse, dass Enterprise-Search-Strategien nur Erfolg haben können, wenn man sie in umfassende Maßnahmen des Informations- und Wissensmanagements einbettet.
    Date
    22. 1.2016 20:40:31
  18. Fichtner, K.: Boyer-Moore Suchalgorithmus (2005) 0.01
    0.0060750647 = product of:
      0.036450386 = sum of:
        0.036450386 = product of:
          0.07290077 = sum of:
            0.07290077 = weight(_text_:seite in 864) [ClassicSimilarity], result of:
              0.07290077 = score(doc=864,freq=2.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3713015 = fieldWeight in 864, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=864)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Masse der Suchalgorithmen lässt sich in zwei grundlegend verschiedene Teilbereiche untergliedern. Auf der einen Seite stehen Algorithmen, die auf komplexen Datenstrukturen (häufig baumartig) ganze Datensätze unter Verwendung eines Indizes finden. Als geläufiger Vertreter sei hier die binäre Suche auf sortierten Arrays oder in binären Bäumen genannt. Die andere Gruppe, der sich diese Ausarbeitung widmet, dient dazu, Entsprechungen von Mustern in gegebenen Zeichenketten zu finden. Auf den folgenden Seiten werden nun zunächst einige Begriffe eingeführt, die für das weitere Verständnis und einen Vergleich verschiedener Suchalgorithmen nötig sind. Weiterhin wird ein naiver Suchalgorithmus dargestellt und mit der Idee von Boyer und Moore verglichen. Hierzu wird ihr Algorithmus zunächst informal beschrieben, dann mit Blick auf eine Implementation näher erläutert und anschließend einer Effizienzanalyse - sowohl empirisch als auch theoretisch - unterzogen. Abschließend findet eine kurze Bewertung mit Bezug auf Schwachstellen, Vorzüge und Verbesserungsmöglichkeiten statt, im Zuge derer einige prominente Modifikationen des Boyer-Moore Algorithmus vorgestellt werden.
  19. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.01
    0.0060750647 = product of:
      0.036450386 = sum of:
        0.036450386 = product of:
          0.07290077 = sum of:
            0.07290077 = weight(_text_:seite in 4651) [ClassicSimilarity], result of:
              0.07290077 = score(doc=4651,freq=2.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3713015 = fieldWeight in 4651, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4651)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
  20. Schiefer, J.: Aufbau eines internationalen CDS/ISIS Nutzerforums im World Wide Web (1996) 0.01
    0.005499824 = product of:
      0.03299894 = sum of:
        0.03299894 = product of:
          0.06599788 = sum of:
            0.06599788 = weight(_text_:web in 5961) [ClassicSimilarity], result of:
              0.06599788 = score(doc=5961,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.5769126 = fieldWeight in 5961, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.125 = fieldNorm(doc=5961)
          0.5 = coord(1/2)
      0.16666667 = coord(1/6)
    

Authors

Languages

  • d 111
  • e 26
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types