Search (107 results, page 1 of 6)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.22
    0.21794868 = product of:
      0.5448717 = sum of:
        0.13621792 = product of:
          0.40865377 = sum of:
            0.40865377 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.40865377 = score(doc=973,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.40865377 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.40865377 = score(doc=973,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.4 = coord(2/5)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.16
    0.16363746 = product of:
      0.2727291 = sum of:
        0.045405976 = product of:
          0.13621792 = sum of:
            0.13621792 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.13621792 = score(doc=5820,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.034681883 = weight(_text_:retrieval in 5820) [ClassicSimilarity], result of:
          0.034681883 = score(doc=5820,freq=8.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.26736724 = fieldWeight in 5820, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.19264124 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.19264124 = score(doc=5820,freq=4.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.6 = coord(3/5)
    
    Abstract
    The successes of information retrieval (IR) in recent decades were built upon bag-of-words representations. Effective as it is, bag-of-words is only a shallow text understanding; there is a limited amount of information for document ranking in the word space. This dissertation goes beyond words and builds knowledge based text representations, which embed the external and carefully curated information from knowledge bases, and provide richer and structured evidence for more advanced information retrieval systems. This thesis research first builds query representations with entities associated with the query. Entities' descriptions are used by query expansion techniques that enrich the query with explanation terms. Then we present a general framework that represents a query with entities that appear in the query, are retrieved by the query, or frequently show up in the top retrieved documents. A latent space model is developed to jointly learn the connections from query to entities and the ranking of documents, modeling the external evidence from knowledge bases and internal ranking features cooperatively. To further improve the quality of relevant entities, a defining factor of our query representations, we introduce learning to rank to entity search and retrieve better entities from knowledge bases. In the document representation part, this thesis research also moves one step forward with a bag-of-entities model, in which documents are represented by their automatic entity annotations, and the ranking is performed in the entity space.
    This proposal includes plans to improve the quality of relevant entities with a co-learning framework that learns from both entity labels and document labels. We also plan to develop a hybrid ranking system that combines word based and entity based representations together with their uncertainties considered. At last, we plan to enrich the text representations with connections between entities. We propose several ways to infer entity graph representations for texts, and to rank documents using their structure representations. This dissertation overcomes the limitation of word based representations with external and carefully curated information from knowledge bases. We believe this thesis research is a solid start towards the new generation of intelligent, semantic, and structured information retrieval.
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.15
    0.14866099 = product of:
      0.2477683 = sum of:
        0.026011413 = weight(_text_:retrieval in 563) [ClassicSimilarity], result of:
          0.026011413 = score(doc=563,freq=2.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.20052543 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.20432688 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.20432688 = score(doc=563,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.017430007 = product of:
          0.034860015 = sum of:
            0.034860015 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.034860015 = score(doc=563,freq=2.0), product of:
                0.15016761 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042882618 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.15
    0.14790466 = product of:
      0.24650776 = sum of:
        0.045405976 = product of:
          0.13621792 = sum of:
            0.13621792 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.13621792 = score(doc=701,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.33333334 = coord(1/3)
        0.064883865 = weight(_text_:retrieval in 701) [ClassicSimilarity], result of:
          0.064883865 = score(doc=701,freq=28.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.5001983 = fieldWeight in 701, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.13621792 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.13621792 = score(doc=701,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.6 = coord(3/5)
    
    Abstract
    By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  5. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.09
    0.09081196 = product of:
      0.22702989 = sum of:
        0.056757472 = product of:
          0.17027241 = sum of:
            0.17027241 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.17027241 = score(doc=4997,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.17027241 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.17027241 = score(doc=4997,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.4 = coord(2/5)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  6. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.09
    0.09081196 = product of:
      0.22702989 = sum of:
        0.056757472 = product of:
          0.17027241 = sum of:
            0.17027241 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.17027241 = score(doc=4388,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.17027241 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.17027241 = score(doc=4388,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.4 = coord(2/5)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  7. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.09
    0.09081196 = product of:
      0.22702989 = sum of:
        0.056757472 = product of:
          0.17027241 = sum of:
            0.17027241 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.17027241 = score(doc=855,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.17027241 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.17027241 = score(doc=855,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.4 = coord(2/5)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  8. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.09
    0.09081196 = product of:
      0.22702989 = sum of:
        0.056757472 = product of:
          0.17027241 = sum of:
            0.17027241 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.17027241 = score(doc=1000,freq=2.0), product of:
                0.3635593 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042882618 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.33333334 = coord(1/3)
        0.17027241 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.17027241 = score(doc=1000,freq=2.0), product of:
            0.3635593 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042882618 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.4 = coord(2/5)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  9. Müller, T.: Wissensrepräsentation mit semantischen Netzen im Bereich Luftfahrt (2006) 0.05
    0.046294365 = product of:
      0.11573591 = sum of:
        0.021676177 = weight(_text_:retrieval in 1670) [ClassicSimilarity], result of:
          0.021676177 = score(doc=1670,freq=2.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.16710453 = fieldWeight in 1670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1670)
        0.094059736 = sum of:
          0.06500972 = weight(_text_:netz in 1670) [ClassicSimilarity], result of:
            0.06500972 = score(doc=1670,freq=2.0), product of:
              0.22464268 = queryWeight, product of:
                5.2385488 = idf(docFreq=637, maxDocs=44218)
                0.042882618 = queryNorm
              0.28939167 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.2385488 = idf(docFreq=637, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
          0.029050013 = weight(_text_:22 in 1670) [ClassicSimilarity], result of:
            0.029050013 = score(doc=1670,freq=2.0), product of:
              0.15016761 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.042882618 = queryNorm
              0.19345059 = fieldWeight in 1670, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=1670)
      0.4 = coord(2/5)
    
    Abstract
    Es ist ein semantisches Netz für den Gegenstandsbereich Luftfahrt modelliert worden, welches Unternehmensinformationen, Organisationen, Fluglinien, Flughäfen, etc. enthält, Diese sind 10 Hauptkategorien zugeordnet worden, die untergliedert nach Facetten sind. Die Begriffe des Gegenstandsbereiches sind mit 23 unterschiedlichen Relationen verknüpft worden (Z. B.: 'hat Standort in', bietet an, 'ist Homebase von', etc). Der Schwerpunkt der Betrachtung liegt auf dem Unterschied zwischen den drei klassischen Standardrelationen und den zusätzlich eingerichteten Relationen, bezüglich ihrem Nutzen für ein effizientes Retrieval. Die angelegten Kategorien und Relationen sind sowohl für eine kognitive als auch für eine maschinelle Verarbeitung geeignet.
    Date
    26. 9.2006 21:00:22
  10. Beßler, S.: Wissensrepräsentation musealer Bestände mittels semantischer Netze : Analyse und Annotation eines Teilbestands des Haus der Geschichte der BRD in Bonn (2010) 0.03
    0.033623572 = product of:
      0.084058926 = sum of:
        0.04505309 = weight(_text_:retrieval in 4024) [ClassicSimilarity], result of:
          0.04505309 = score(doc=4024,freq=6.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.34732026 = fieldWeight in 4024, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=4024)
        0.039005835 = product of:
          0.07801167 = sum of:
            0.07801167 = weight(_text_:netz in 4024) [ClassicSimilarity], result of:
              0.07801167 = score(doc=4024,freq=2.0), product of:
                0.22464268 = queryWeight, product of:
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.042882618 = queryNorm
                0.34727 = fieldWeight in 4024, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4024)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Über ihre vielfältigen Relationen und Inferenzen unterstützen sie den Anwender und helfen Daten im Kontext zu präsentieren und zu erfassen. Die Relationen ermöglichen Suchanfragen die große Treffermengen produzieren zu verfeinern und so Treffermengen zu erreichen die möglichst genau das enthalten was gesucht wurde. Es wird, anhand eines Ausschnitts des Datenbestands des Haus der Geschichte der Bundesrepublik Deutschland in Bonn, aufgezeigt wie bestehende Datenbestände in semantische Netze überführt werden können und wie diese anschließend für das Retrieval eingesetzt werden können. Für die Modellierung des semantischen Netz wird die Open Source Software Protégé in den Versionen 3.4.4. und 4.1_beta eingesetzt, die Möglichkeiten des Retrieval werden anhand der Abfragesprachen DL Query und SPARQL sowie anhand der Software Ontology Browser und OntoGraf erläutert.
  11. Boteram, F.: Semantische Relationen in Dokumentationssprachen : vom Thesaurus zum semantischen Netz (2008) 0.03
    0.030341381 = product of:
      0.07585345 = sum of:
        0.030346649 = weight(_text_:retrieval in 2461) [ClassicSimilarity], result of:
          0.030346649 = score(doc=2461,freq=2.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.23394634 = fieldWeight in 2461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2461)
        0.0455068 = product of:
          0.0910136 = sum of:
            0.0910136 = weight(_text_:netz in 2461) [ClassicSimilarity], result of:
              0.0910136 = score(doc=2461,freq=2.0), product of:
                0.22464268 = queryWeight, product of:
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.042882618 = queryNorm
                0.40514833 = fieldWeight in 2461, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2461)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs "Theater" der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines vorgegebenen Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
  12. Rötzer, A.: ¬Die Einteilung der Wissenschaften : Analyse und Typologisierung von Wissenschaftsklassifikationen (2003) 0.03
    0.02572128 = product of:
      0.1286064 = sum of:
        0.1286064 = weight(_text_:neuronales in 684) [ClassicSimilarity], result of:
          0.1286064 = score(doc=684,freq=2.0), product of:
            0.37764645 = queryWeight, product of:
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.042882618 = queryNorm
            0.34054708 = fieldWeight in 684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.806516 = idf(docFreq=17, maxDocs=44218)
              0.02734375 = fieldNorm(doc=684)
      0.2 = coord(1/5)
    
    Abstract
    Durch die rasche Vermehrung und erhöhte Verschränkung der Wissenschaften stoßen die klassischen zweidimensionalen und hierarchischen Klassifikationen heute an eine Grenze. Die eindeutige Hierarchisierung kann hier nur auf Kosten der potentiell auszubildenden Beziehungen zwischen den zu klassifizierenden Wissenschaften gehen, denn, um die Logik der Hierarchie zu bewahren, muss häufig auf die Logik der inhaltlichen Zusammenhänge verzichten werden. Eine Lösung in Form von mehrdimensionalen Verbindungen und In-Bezug-Setzungen bieten die Darstellungsmöglichkeiten der neuen Medien. Einen Schritt in diese Richtung unternahm ARTUR P. SCHMIDT mit seinem 1999 auch als CD-Rom erschienen 'Wissensnavigator'. Unter Bezugnahme auf Deleuzes und Guattaris 'Rhizom' fordert er eine ungehinderte Vernetzung des Wissens in alle Richtungen. Er sieht sich damit im Einklang mit den Entwicklungen seiner Zeit. Interaktive Benutzung soll diese totale Vernetzung des Wissens generieren, indem der Benutzer der Enzyklopädie durch seine Anfragen bei ihrer Evolution mitwirkt. Die Darstellbarkeit dieser Vernetzung soll mit Hilfe eines sich in einem 4-dimensionalen Raum befindlichen "Hyperkubus" ermöglicht werden, der "in einer Matrix ein neuronales Netzwerk" enthalten soll. Neben diesem wohl noch als utopisch zu bezeichnenden Projekt gibt es derzeit eine Anzahl konservativerer Ansätze der Klassifizierung im Internet, die größte Differenzierungen erlauben, aber auf ungeregelte 'Hyperverlinkung' verzichten. Sollten jedoch Projekte wie die ARTUR P. SCHMIDTS realisiert werden können, so ist damit vielleicht auch Nietzsches Forderung zu erfüllen, die er noch in weiter Ferne vermutete.
  13. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.02
    0.024993239 = product of:
      0.0624831 = sum of:
        0.04505309 = weight(_text_:retrieval in 1709) [ClassicSimilarity], result of:
          0.04505309 = score(doc=1709,freq=6.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.34732026 = fieldWeight in 1709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
        0.017430007 = product of:
          0.034860015 = sum of:
            0.034860015 = weight(_text_:22 in 1709) [ClassicSimilarity], result of:
              0.034860015 = score(doc=1709,freq=2.0), product of:
                0.15016761 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042882618 = queryNorm
                0.23214069 = fieldWeight in 1709, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1709)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
    Date
    4. 2.2015 9:22:39
  14. Nagelschmidt, M.: Integration und Anwendung von "Semantic Web"-Technologien im betrieblichen Wissensmanagement (2012) 0.02
    0.021672416 = product of:
      0.05418104 = sum of:
        0.021676177 = weight(_text_:retrieval in 11) [ClassicSimilarity], result of:
          0.021676177 = score(doc=11,freq=2.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.16710453 = fieldWeight in 11, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=11)
        0.03250486 = product of:
          0.06500972 = sum of:
            0.06500972 = weight(_text_:netz in 11) [ClassicSimilarity], result of:
              0.06500972 = score(doc=11,freq=2.0), product of:
                0.22464268 = queryWeight, product of:
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.042882618 = queryNorm
                0.28939167 = fieldWeight in 11, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=11)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Das Wissensmanagement ist ein Themenkomplex mit zahlreichen fachlichen Bezügen, insbesondere zur Wirtschaftsinformatik und der Management-, Personal- und Organisationslehre als Teilbereiche der Betriebswirtschaftslehre. In einem weiter gefassten Verständnis bestehen aber auch Bezüge zur Organisationspsychologie, zur Informatik und zur Informationswissenschaft. Von den Entwicklungen in diesen Bezugsdisziplinen können deshalb auch Impulse für die Konzepte, Methodiken und Technologien des Wissensmanagements ausgehen. Die aus der Informatik stammende Idee, das World Wide Web (WWW) zu einem semantischen Netz auszubauen, kann als eine solche impulsgebende Entwicklung gesehen werden. Im Verlauf der vergangenen Dekade hat diese Idee einen hinreichenden Reifegrad erreicht, so dass eine potenzielle Relevanz auch für das Wissensmanagement unterstellt werden darf. Im Rahmen dieser Arbeit soll anhand eines konkreten, konzeptionellen Ansatzes demonstriert werden, wie dieser technologische Impuls für das Wissensmanagement nutzenbringend kanalisiert werden kann. Ein derartiges Erkenntnisinteresse erfordert zunächst die Erarbeitung eines operationalen Verständnisses von Wissensmanagement, auf dem die weiteren Betrachtungen aufbauen können. Es werden außerdem die Architektur und die Funktionsweise eines "Semantic Web" sowie XML und die Ontologiesprachen RDF/RDFS und OWL als maßgebliche Werkzeuge für eine ontologiebasierte Wissensrepräsentation eingeführt. Anschließend wird zur Integration und Anwendung dieser semantischen Technologien in das Wissensmanagement ein Ansatz vorgestellt, der eine weitgehend automatisierte Wissensmodellierung und daran anschließende, semantische Informationserschließung der betrieblichen Datenbasis beschreibt. Zur Veranschaulichung wird dazu auf eine fiktive Beispielwelt aus der Fertigungsindustrie zurückgegriffen. Schließlich soll der Nutzen dieser Vorgehensweise durch Anwendungsszenarien des Information Retrieval (IR) im Kontext von Geschäftsprozessen illustriert werden.
  15. Kiren, T.: ¬A clustering based indexing technique of modularized ontologies for information retrieval (2017) 0.02
    0.020158213 = product of:
      0.05039553 = sum of:
        0.038775526 = weight(_text_:retrieval in 4399) [ClassicSimilarity], result of:
          0.038775526 = score(doc=4399,freq=10.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.29892567 = fieldWeight in 4399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.03125 = fieldNorm(doc=4399)
        0.011620005 = product of:
          0.02324001 = sum of:
            0.02324001 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.02324001 = score(doc=4399,freq=2.0), product of:
                0.15016761 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042882618 = queryNorm
                0.15476047 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Indexing plays a vital role in Information Retrieval. With the availability of huge volume of information, it has become necessary to index the information in such a way to make easier for the end users to find the information they want efficiently and accurately. Keyword-based indexing uses words as indexing terms. It is not capable of capturing the implicit relation among terms or the semantics of the words in the document. To eliminate this limitation, ontology-based indexing came into existence, which allows semantic based indexing to solve complex and indirect user queries. Ontologies are used for document indexing which allows semantic based information retrieval. Existing ontologies or the ones constructed from scratch are used presently for indexing. Constructing ontologies from scratch is a labor-intensive task and requires extensive domain knowledge whereas use of an existing ontology may leave some important concepts in documents un-annotated. Using multiple ontologies can overcome the problem of missing out concepts to a great extent, but it is difficult to manage (changes in ontologies over time by their developers) multiple ontologies and ontology heterogeneity also arises due to ontologies constructed by different ontology developers. One possible solution to managing multiple ontologies and build from scratch is to use modular ontologies for indexing.
    Modular ontologies are built in modular manner by combining modules from multiple relevant ontologies. Ontology heterogeneity also arises during modular ontology construction because multiple ontologies are being dealt with, during this process. Ontologies need to be aligned before using them for modular ontology construction. The existing approaches for ontology alignment compare all the concepts of each ontology to be aligned, hence not optimized in terms of time and search space utilization. A new indexing technique is proposed based on modular ontology. An efficient ontology alignment technique is proposed to solve the heterogeneity problem during the construction of modular ontology. Results are satisfactory as Precision and Recall are improved by (8%) and (10%) respectively. The value of Pearsons Correlation Coefficient for degree of similarity, time, search space requirement, precision and recall are close to 1 which shows that the results are significant. Further research can be carried out for using modular ontology based indexing technique for Multimedia Information Retrieval and Bio-Medical information retrieval.
    Date
    20. 1.2015 18:30:22
  16. Lehrke, C.: Architektur von Suchmaschinen : Googles Architektur, insb. Crawler und Indizierer (2005) 0.02
    0.018071901 = product of:
      0.04517975 = sum of:
        0.030654743 = weight(_text_:retrieval in 867) [ClassicSimilarity], result of:
          0.030654743 = score(doc=867,freq=4.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.23632148 = fieldWeight in 867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=867)
        0.0145250065 = product of:
          0.029050013 = sum of:
            0.029050013 = weight(_text_:22 in 867) [ClassicSimilarity], result of:
              0.029050013 = score(doc=867,freq=2.0), product of:
                0.15016761 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042882618 = queryNorm
                0.19345059 = fieldWeight in 867, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=867)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Das Internet mit seinen ständig neuen Usern und seinem extremen Wachstum bringt viele neue Herausforderungen mit sich. Aufgrund dieses Wachstums bedienen sich die meisten Leute der Hilfe von Suchmaschinen um Inhalte innerhalb des Internet zu finden. Suchmaschinen nutzen für die Beantwortung der User-Anfragen Information Retrieval Techniken. Problematisch ist nur, dass traditionelle Information Retrieval (IR) Systeme für eine relativ kleine und zusammenhängende Sammlung von Dokumenten entwickelt wurden. Das Internet hingegen unterliegt einem ständigen Wachstum, schnellen Änderungsraten und es ist über geographisch verteilte Computer verteilt. Aufgrund dieser Tatsachen müssen die alten Techniken erweitert oder sogar neue IRTechniken entwickelt werden. Eine Suchmaschine die diesen Herausforderungen vergleichsweise erfolgreich entgegnet ist Google. Ziel dieser Arbeit ist es aufzuzeigen, wie Suchmaschinen funktionieren. Der Fokus liegt dabei auf der Suchmaschine Google. Kapitel 2 wird sich zuerst mit dem Aufbau von Suchmaschinen im Allgemeinen beschäftigen, wodurch ein grundlegendes Verständnis für die einzelnen Komponenten geschaffen werden soll. Im zweiten Teil des Kapitels wird darauf aufbauend ein Überblick über die Architektur von Google gegeben. Kapitel 3 und 4 dienen dazu, näher auf die beiden Komponenten Crawler und Indexer einzugehen, bei denen es sich um zentrale Elemente im Rahmen von Suchmaschinen handelt.
    Pages
    22 S
  17. Liebwald, D.: Evaluierung juristischer Datenbanken (2003) 0.02
    0.017684689 = product of:
      0.04421172 = sum of:
        0.021458318 = weight(_text_:retrieval in 2490) [ClassicSimilarity], result of:
          0.021458318 = score(doc=2490,freq=4.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.16542503 = fieldWeight in 2490, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2490)
        0.0227534 = product of:
          0.0455068 = sum of:
            0.0455068 = weight(_text_:netz in 2490) [ClassicSimilarity], result of:
              0.0455068 = score(doc=2490,freq=2.0), product of:
                0.22464268 = queryWeight, product of:
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.042882618 = queryNorm
                0.20257416 = fieldWeight in 2490, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.2385488 = idf(docFreq=637, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2490)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Footnote
    Rez. in Mitt. VÖB 57(2004) H.2, S.71-73 (J. Pauser):"Bei der hier zu besprechenden Arbeit handelt es sich um die Ende 2003 erfolgte Drucklegung einer juristischen Dissertation an der Universität Wien. Die Autorin zielt darauf ab, "Grundlagen, Entstehung, verschiedene Ansätze und Entwicklungstendenzen desjuristischen Information Retrieval aufzuzeigen [...], um schließlich die Qualität der wichtigsten österreichischen Rechtsdatenbanken anhand der gewonnenen Erkenntnisse messen zu können". Das gewählte Thema ist spannend und wohl für jeden Informationswissenschaftler und praktischen Juristen von Relevanz. Elektronische Datenbanken mit Rechtsinformation, seien sie nun online oder offline, revolutionieren seit geraumer Zeit die juristische Arbeit nicht nur in Österreich. Das Recherchieren mittels dieser neuen "Werkzeuge" gehört bereits standardmäßig zur Grundausbildung eines jedes Juristen. Die Kenntnis der umfassenden Möglichkeiten dieser neuen juristischen Informationsquellen beeinflusst massiv die Qualität und vor allem Schnelligkeit des juristischen Arbeitens. Vor diesem Hintergrund ist es immens wichtig, dass die juristischen Datenbanken den Bedürfnissen der Nutzer möglichst zweckmäßig entgegenkommen. Doris Liebwald definiert im ersten Teil ihrer Arbeit den Begriff "Information Retrieval" als "Repräsentation, Speicherung und Organisation von Informationen und der Zugriff auf Informationen" und versucht anschließend Bewertungskriterien für Rechtsdatenbanken aufzustellen. Hinsichtlich der Daten (Gesetze, Gerichtsentscheidungen, juristische Literatur) fordert sie "Vollständigkeit", "Aktualität" und "Authentizität"; in technischer Sicht ergeben sich "Inhaltserschließung", "Suchfunktionen/-möglichkeiten", sowie die "Benutzerfreundlichkeit der Systemoberfläche" etwa durch einfache Bedienbarkeit, Verständlichkeit, Anreicherung durch Hilfefunktionen usw. als Bewertungskriterien, Schließlich sind aus praktisch-ökonomischer Sicht noch "Kosten" und der "Support" aufgenommen.
    Der Hauptteil der Studie umfasst nun fragebogenartig strukturierte Angaben zu insgesamt 18 österreichischen Rechtsinformationsdatenbanken und zwar: Das große - aber wohl nicht zu verhindern gewesene - Manko dieses Abschnittes ist nun, dass er den Stand von Frühjahr/Sommer 2002 wiedergibt und damit zum größten Teil nicht mehr aktuell ist, denn auf dem Rechtsinformationsmarkt ergaben sich in Ietzter Zeit eine Vielzahl an Änderungen durch Verlags- und Produktverschränkungen, technische Neuerungen und Neugestaltung vieler online-Datenbanken. Der Dokumentationsteil hat damit heute fast nur mehr rechtshistorischen Wert. Beispiele: Die "Arbeitsrecht CD-Rom" wurde bereits vom Markt genommen. - "jusline-pro" dürfte auch nicht mehr existieren, zumindest erscheint im Netz an dem angegebenen URL nun schon seit geraumer Zeit ein Hin weis darauf, dass das System "momentan" (sic) nicht zur Verfügung steht. - "Orac Online" und "ARD Online" wurden mittlerweile verändert und zusammengeführt. - Der Parlamentsserver (http://www.parlinkom.gv.at) hat einen umfassenden grafischen Relaunch hinter sich gebracht, der sich leider nicht zum Vorteil des Nutzers auswirkt. Zugegeben, das alte Design wirkte billig, veraltet und unschön, aber man fand schnell und zügig die "Stenographischen Protokolle" und die "Materialien". Das neue Design fällt trotzdem weit hinter die praktikablen Standards anderer europäischer Parlamente zurück. Leider wurde hier eine Chance vertan. Die Angesprochenen rechtsrelevanten Inhalte sind zwar weiterhin und in großer Menge vorhanden, doch erfordert die Suche nun ein gewisses Maß an archivarischem Fleiß. Viele Nutzer, die sich zuvor sehr leicht getan haben, hatten nach der Umstellung der Website massive Probleme. Vielleicht hätte man hier sinnvollerweise die Publikums-Website mit den allgemeinen Daten zum Parlamentvon der Datenbank-Website mit den gesetzgebungsrelevanten Daten trennen und letztere benutzerfreundlicher aufbereiten sollen. - Die RDB hat nun ein neues Content-Portal eröffnet, das mit dem alten, hier dargestellten, kaum mehr etwas gemeinsam hat. - Im RIS werden seit Anfang 2004 die Bundesgesetzblätter authentisch kundgemacht. - Die Steuerdatenbank ist nunmehr mit der SWK-Online vereinigt. Das mag hier als Hinweis genügen. Ein kurzes zehnseitiges "Ergebnis" beschließt die Studie. Hierwurde die Chance vertan, die dargestellten Datenbanken umfassender zu vergleichen und Unterschiede, Vorteile, Nutzungsmöglichkeiten, Praxisvor- und -nach teile usw. etwa mittels eines standardisierten Tests herauszuarbeiten. Die Arbeit wird ihren Wert vor allem darin entfalten, Datenbankanbieter zu einer Verbesserung ihrer Datenbanken anzuregen. Der Hinweis, dass "die dem User zur Verfügung gestellten Hilfefunktionen und Informationen als untauglich oder unzureichend zu bewerten sind" (S. 191), sollten sich wirklich alle Datenbankanbieter auf diesem Gebiet zu Herzen nehmen."
  18. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2015) 0.02
    0.015017696 = product of:
      0.07508848 = sum of:
        0.07508848 = weight(_text_:retrieval in 1172) [ClassicSimilarity], result of:
          0.07508848 = score(doc=1172,freq=6.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.5788671 = fieldWeight in 1172, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=1172)
      0.2 = coord(1/5)
    
    RSWK
    Englisch / Anapher <Syntax> / Hypertext / Information Retrieval / Korpus <Linguistik>
    Subject
    Englisch / Anapher <Syntax> / Hypertext / Information Retrieval / Korpus <Linguistik>
  19. López Vargas, M.A.: "Ilmenauer Verteiltes Information REtrieval System" (IVIRES) : eine neue Architektur zur Informationsfilterung in einem verteilten Information Retrieval System (2002) 0.01
    0.014714277 = product of:
      0.073571384 = sum of:
        0.073571384 = weight(_text_:retrieval in 4041) [ClassicSimilarity], result of:
          0.073571384 = score(doc=4041,freq=4.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.5671716 = fieldWeight in 4041, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.09375 = fieldNorm(doc=4041)
      0.2 = coord(1/5)
    
  20. Hans, J.-G.: Dateiorganisation im Information Retrieval mit Hilfe von Cluster-Analyse-Verfahren (1979) 0.01
    0.013872753 = product of:
      0.069363765 = sum of:
        0.069363765 = weight(_text_:retrieval in 1213) [ClassicSimilarity], result of:
          0.069363765 = score(doc=1213,freq=2.0), product of:
            0.12971628 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.042882618 = queryNorm
            0.5347345 = fieldWeight in 1213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.125 = fieldNorm(doc=1213)
      0.2 = coord(1/5)
    

Authors

Languages

  • d 78
  • e 25
  • a 1
  • f 1
  • hu 1
  • pt 1
  • More… Less…

Types