Search (2169 results, page 1 of 109)

  • × year_i:[2010 TO 2020}
  1. Kleineberg, M.: Context analysis and context indexing : formal pragmatics in knowledge organization (2014) 0.45
    0.44677508 = product of:
      0.6701626 = sum of:
        0.092791185 = product of:
          0.27837354 = sum of:
            0.27837354 = weight(_text_:3a in 1826) [ClassicSimilarity], result of:
              0.27837354 = score(doc=1826,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.93669677 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.33333334 = coord(1/3)
        0.27837354 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.27837354 = score(doc=1826,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
        0.02062434 = product of:
          0.04124868 = sum of:
            0.04124868 = weight(_text_:web in 1826) [ClassicSimilarity], result of:
              0.04124868 = score(doc=1826,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.36057037 = fieldWeight in 1826, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1826)
          0.5 = coord(1/2)
        0.27837354 = weight(_text_:2f in 1826) [ClassicSimilarity], result of:
          0.27837354 = score(doc=1826,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.93669677 = fieldWeight in 1826, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.078125 = fieldNorm(doc=1826)
      0.6666667 = coord(4/6)
    
    Source
    http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=5&ved=0CDQQFjAE&url=http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F3131107&ei=HzFWVYvGMsiNsgGTyoFI&usg=AFQjCNE2FHUeR9oQTQlNC4TPedv4Mo3DaQ&sig2=Rlzpr7a3BLZZkqZCXXN_IA&bvm=bv.93564037,d.bGg&cad=rja
  2. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.39
    0.38972294 = product of:
      0.7794459 = sum of:
        0.11134942 = product of:
          0.33404824 = sum of:
            0.33404824 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.33404824 = score(doc=973,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.33333334 = coord(1/3)
        0.33404824 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33404824 = score(doc=973,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.33404824 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.33404824 = score(doc=973,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.5 = coord(3/6)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  3. Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019) 0.26
    0.26404512 = product of:
      0.52809024 = sum of:
        0.05567471 = product of:
          0.16702412 = sum of:
            0.16702412 = weight(_text_:3a in 484) [ClassicSimilarity], result of:
              0.16702412 = score(doc=484,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.56201804 = fieldWeight in 484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=484)
          0.33333334 = coord(1/3)
        0.23620777 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.23620777 = score(doc=484,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
        0.23620777 = weight(_text_:2f in 484) [ClassicSimilarity], result of:
          0.23620777 = score(doc=484,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7948135 = fieldWeight in 484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=484)
      0.5 = coord(3/6)
    
    Footnote
    https%3A%2F%2Fjournals.univie.ac.at%2Findex.php%2Fvoebm%2Farticle%2Fdownload%2F5332%2F5271%2F&usg=AOvVaw2yQdFGHlmOwVls7ANCpTii.
  4. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.25
    0.2455307 = product of:
      0.36829603 = sum of:
        0.16702412 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16702412 = score(doc=563,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.024749206 = product of:
          0.049498413 = sum of:
            0.049498413 = weight(_text_:web in 563) [ClassicSimilarity], result of:
              0.049498413 = score(doc=563,freq=8.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.43268442 = fieldWeight in 563, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
        0.16702412 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.16702412 = score(doc=563,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.009498609 = product of:
          0.028495826 = sum of:
            0.028495826 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.028495826 = score(doc=563,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.33333334 = coord(1/3)
      0.6666667 = coord(4/6)
    
    Abstract
    In this thesis we propose three new word association measures for multi-word term extraction. We combine these association measures with LocalMaxs algorithm in our extraction model and compare the results of different multi-word term extraction methods. Our approach is language and domain independent and requires no training data. It can be applied to such tasks as text summarization, information retrieval, and document classification. We further explore the potential of using multi-word terms as an effective representation for general web-page summarization. We extract multi-word terms from human written summaries in a large collection of web-pages, and generate the summaries by aligning document words with these multi-word terms. Our system applies machine translation technology to learn the aligning process from a training set and focuses on selecting high quality multi-word terms from human written summaries to generate suitable results for web-page summarization.
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  5. Herb, U.; Beucke, D.: ¬Die Zukunft der Impact-Messung : Social Media, Nutzung und Zitate im World Wide Web (2013) 0.23
    0.23094857 = product of:
      0.46189713 = sum of:
        0.22269884 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.22269884 = score(doc=2188,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
        0.01649947 = product of:
          0.03299894 = sum of:
            0.03299894 = weight(_text_:web in 2188) [ClassicSimilarity], result of:
              0.03299894 = score(doc=2188,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.2884563 = fieldWeight in 2188, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2188)
          0.5 = coord(1/2)
        0.22269884 = weight(_text_:2f in 2188) [ClassicSimilarity], result of:
          0.22269884 = score(doc=2188,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.7493574 = fieldWeight in 2188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0625 = fieldNorm(doc=2188)
      0.5 = coord(3/6)
    
    Content
    Vgl. unter: https://www.leibniz-science20.de%2Fforschung%2Fprojekte%2Faltmetrics-in-verschiedenen-wissenschaftsdisziplinen%2F&ei=2jTgVaaXGcK4Udj1qdgB&usg=AFQjCNFOPdONj4RKBDf9YDJOLuz3lkGYlg&sig2=5YI3KWIGxBmk5_kv0P_8iQ.
  6. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.23
    0.22842023 = product of:
      0.34263033 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.13918677 = score(doc=4997,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4997,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.017861202 = product of:
          0.035722405 = sum of:
            0.035722405 = weight(_text_:web in 4997) [ClassicSimilarity], result of:
              0.035722405 = score(doc=4997,freq=6.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3122631 = fieldWeight in 4997, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
        0.13918677 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4997,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.6666667 = coord(4/6)
    
    Abstract
    While classifications are heavily used to categorize web content, the evolution of the web foresees a more formal structure - ontology - which can serve this purpose. Ontologies are core artifacts of the Semantic Web which enable machines to use inference rules to conduct automated reasoning on data. Lightweight ontologies bridge the gap between classifications and ontologies. A lightweight ontology (LO) is an ontology representing a backbone taxonomy where the concept of the child node is more specific than the concept of the parent node. Formal lightweight ontologies can be generated from their informal ones. The key applications of formal lightweight ontologies are document classification, semantic search, and data integration. However, these applications suffer from the following problems: the disambiguation accuracy of the state of the art NLP tools used in generating formal lightweight ontologies from their informal ones; the lack of background knowledge needed for the formal lightweight ontologies; and the limitation of ontology reuse. In this dissertation, we propose a novel solution to these problems in formal lightweight ontologies; namely, faceted lightweight ontology (FLO). FLO is a lightweight ontology in which terms, present in each node label, and their concepts, are available in the background knowledge (BK), which is organized as a set of facets. A facet can be defined as a distinctive property of the groups of concepts that can help in differentiating one group from another. Background knowledge can be defined as a subset of a knowledge base, such as WordNet, and often represents a specific domain.
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  7. Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019) 0.23
    0.2273384 = product of:
      0.4546768 = sum of:
        0.064953834 = product of:
          0.19486149 = sum of:
            0.19486149 = weight(_text_:3a in 5955) [ClassicSimilarity], result of:
              0.19486149 = score(doc=5955,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.65568775 = fieldWeight in 5955, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5955)
          0.33333334 = coord(1/3)
        0.19486149 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.19486149 = score(doc=5955,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
        0.19486149 = weight(_text_:2f in 5955) [ClassicSimilarity], result of:
          0.19486149 = score(doc=5955,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.65568775 = fieldWeight in 5955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5955)
      0.5 = coord(3/6)
    
    Footnote
    Rez. in: Philosophisch-ethische Rezensionen vom 09.11.2019 (Jürgen Czogalla), Unter: https://philosophisch-ethische-rezensionen.de/rezension/Goedert1.html. In: B.I.T. online 23(2020) H.3, S.345-347 (W. Sühl-Strohmenger) [Unter: https%3A%2F%2Fwww.b-i-t-online.de%2Fheft%2F2020-03-rezensionen.pdf&usg=AOvVaw0iY3f_zNcvEjeZ6inHVnOK]. In: Open Password Nr. 805 vom 14.08.2020 (H.-C. Hobohm) [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzE0MywiOGI3NjZkZmNkZjQ1IiwwLDAsMTMxLDFd].
  8. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.22
    0.22338754 = product of:
      0.3350813 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.13918677 = score(doc=4388,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4388,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.01031217 = product of:
          0.02062434 = sum of:
            0.02062434 = weight(_text_:web in 4388) [ClassicSimilarity], result of:
              0.02062434 = score(doc=4388,freq=2.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.18028519 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.5 = coord(1/2)
        0.13918677 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.13918677 = score(doc=4388,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.6666667 = coord(4/6)
    
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  9. Zeng, Q.; Yu, M.; Yu, W.; Xiong, J.; Shi, Y.; Jiang, M.: Faceted hierarchy : a new graph type to organize scientific concepts and a construction method (2019) 0.19
    0.19486147 = product of:
      0.38972294 = sum of:
        0.05567471 = product of:
          0.16702412 = sum of:
            0.16702412 = weight(_text_:3a in 400) [ClassicSimilarity], result of:
              0.16702412 = score(doc=400,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.56201804 = fieldWeight in 400, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=400)
          0.33333334 = coord(1/3)
        0.16702412 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16702412 = score(doc=400,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
        0.16702412 = weight(_text_:2f in 400) [ClassicSimilarity], result of:
          0.16702412 = score(doc=400,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.56201804 = fieldWeight in 400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=400)
      0.5 = coord(3/6)
    
    Content
    Vgl.: https%3A%2F%2Faclanthology.org%2FD19-5317.pdf&usg=AOvVaw0ZZFyq5wWTtNTvNkrvjlGA.
  10. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.18
    0.1760301 = product of:
      0.3520602 = sum of:
        0.037116475 = product of:
          0.11134942 = sum of:
            0.11134942 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.11134942 = score(doc=5820,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.15747185 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15747185 = score(doc=5820,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.15747185 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.15747185 = score(doc=5820,freq=4.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.5 = coord(3/6)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  11. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.16
    0.16238457 = product of:
      0.32476914 = sum of:
        0.046395592 = product of:
          0.13918677 = sum of:
            0.13918677 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.13918677 = score(doc=855,freq=2.0), product of:
                0.2971864 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03505379 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.33333334 = coord(1/3)
        0.13918677 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13918677 = score(doc=855,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.13918677 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.13918677 = score(doc=855,freq=2.0), product of:
            0.2971864 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03505379 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.5 = coord(3/6)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  12. Sandner, M.: Neues aus der Kommission für Sacherschließung (2010) 0.03
    0.027106076 = product of:
      0.08131823 = sum of:
        0.07567032 = sum of:
          0.023058712 = weight(_text_:web in 4314) [ClassicSimilarity], result of:
            0.023058712 = score(doc=4314,freq=10.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.20156497 = fieldWeight in 4314, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4314)
          0.052611604 = weight(_text_:seite in 4314) [ClassicSimilarity], result of:
            0.052611604 = score(doc=4314,freq=6.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.2679638 = fieldWeight in 4314, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.01953125 = fieldNorm(doc=4314)
        0.005647916 = product of:
          0.016943747 = sum of:
            0.016943747 = weight(_text_:29 in 4314) [ClassicSimilarity], result of:
              0.016943747 = score(doc=4314,freq=4.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.13740966 = fieldWeight in 4314, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4314)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
    Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
    Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
    Date
    9. 2.2011 18:59:29
  13. Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010) 0.03
    0.026752612 = product of:
      0.08025783 = sum of:
        0.07550853 = sum of:
          0.012374603 = weight(_text_:web in 3374) [ClassicSimilarity], result of:
            0.012374603 = score(doc=3374,freq=2.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.108171105 = fieldWeight in 3374, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
          0.063133925 = weight(_text_:seite in 3374) [ClassicSimilarity], result of:
            0.063133925 = score(doc=3374,freq=6.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.32155657 = fieldWeight in 3374, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0234375 = fieldNorm(doc=3374)
        0.0047493046 = product of:
          0.014247913 = sum of:
            0.014247913 = weight(_text_:22 in 3374) [ClassicSimilarity], result of:
              0.014247913 = score(doc=3374,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.116070345 = fieldWeight in 3374, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=3374)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
    Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
    Date
    3. 5.1997 8:44:22
  14. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.03
    0.025432613 = product of:
      0.15259567 = sum of:
        0.15259567 = sum of:
          0.049498413 = weight(_text_:web in 1705) [ClassicSimilarity], result of:
            0.049498413 = score(doc=1705,freq=8.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.43268442 = fieldWeight in 1705, product of:
                2.828427 = tf(freq=8.0), with freq of:
                  8.0 = termFreq=8.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
          0.10309726 = weight(_text_:seite in 1705) [ClassicSimilarity], result of:
            0.10309726 = score(doc=1705,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.52509964 = fieldWeight in 1705, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.046875 = fieldNorm(doc=1705)
      0.16666667 = coord(1/6)
    
    RSWK
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
    Subject
    Suchmaschine / Web-Seite / Qualitätsmanagement / Benutzerfreundlichkeit / Bewertung
    Suchmaschine / Mensch-Maschine-Schnittstelle / Benutzerfreundlichkeit / Web Site
  15. Hollink, L.; Assem, M. van: Estimating the relevance of search results in the Culture-Web : a study of semantic distance measures (2010) 0.03
    0.025096897 = product of:
      0.07529069 = sum of:
        0.037123807 = product of:
          0.07424761 = sum of:
            0.07424761 = weight(_text_:web in 4649) [ClassicSimilarity], result of:
              0.07424761 = score(doc=4649,freq=18.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.64902663 = fieldWeight in 4649, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.5 = coord(1/2)
        0.03816688 = product of:
          0.05725032 = sum of:
            0.028754493 = weight(_text_:29 in 4649) [ClassicSimilarity], result of:
              0.028754493 = score(doc=4649,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23319192 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
            0.028495826 = weight(_text_:22 in 4649) [ClassicSimilarity], result of:
              0.028495826 = score(doc=4649,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.23214069 = fieldWeight in 4649, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4649)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    More and more cultural heritage institutions publish their collections, vocabularies and metadata on the Web. The resulting Web of linked cultural data opens up exciting new possibilities for searching and browsing through these cultural heritage collections. We report on ongoing work in which we investigate the estimation of relevance in this Web of Culture. We study existing measures of semantic distance and how they apply to two use cases. The use cases relate to the structured, multilingual and multimodal nature of the Culture Web. We distinguish between measures using the Web, such as Google distance and PMI, and measures using the Linked Data Web, i.e. the semantic structure of metadata vocabularies. We perform a small study in which we compare these semantic distance measures to human judgements of relevance. Although it is too early to draw any definitive conclusions, the study provides new insights into the applicability of semantic distance measures to the Web of Culture, and clear starting points for further research.
    Date
    29. 7.2011 14:44:56
    26.12.2011 13:40:22
    Theme
    Semantic Web
  16. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.02
    0.024740985 = product of:
      0.07422295 = sum of:
        0.023333777 = product of:
          0.046667553 = sum of:
            0.046667553 = weight(_text_:web in 1679) [ClassicSimilarity], result of:
              0.046667553 = score(doc=1679,freq=4.0), product of:
                0.11439841 = queryWeight, product of:
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.03505379 = queryNorm
                0.4079388 = fieldWeight in 1679, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.2635105 = idf(docFreq=4597, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.5 = coord(1/2)
        0.050889175 = product of:
          0.07633376 = sum of:
            0.038339324 = weight(_text_:29 in 1679) [ClassicSimilarity], result of:
              0.038339324 = score(doc=1679,freq=2.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.31092256 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
            0.037994437 = weight(_text_:22 in 1679) [ClassicSimilarity], result of:
              0.037994437 = score(doc=1679,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.30952093 = fieldWeight in 1679, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1679)
          0.6666667 = coord(2/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
    Content
    Vortrag, anlässlich der SWIB 2010, 29./30.11.2010 in Köln.
    Date
    13. 2.2011 20:22:23
  17. Müller, S.: Schattenbibliotheken : Welche Auswirkungen haben Sci-Hub und Co. auf Verlage und Bibliotheken? (2019) 0.02
    0.023740595 = product of:
      0.071221784 = sum of:
        0.06014007 = product of:
          0.12028014 = sum of:
            0.12028014 = weight(_text_:seite in 765) [ClassicSimilarity], result of:
              0.12028014 = score(doc=765,freq=4.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.61261624 = fieldWeight in 765, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=765)
          0.5 = coord(1/2)
        0.01108171 = product of:
          0.03324513 = sum of:
            0.03324513 = weight(_text_:22 in 765) [ClassicSimilarity], result of:
              0.03324513 = score(doc=765,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.2708308 = fieldWeight in 765, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=765)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Schattenbibliotheken wie Sci-Hub bieten Zugriff auf wissenschaftliche Volltexte aus allen akademischen Disziplinen. Sie agieren rechtswidrig, indem sie die Bezahlschranken der Verlage umgehen und Dokumente in ihren eigenen Datenbanken speichern. Sie können als eine der Auswirkungen auf die Zeitschriftenkrise der letzten Jahrzehnte verstanden werden. Im Rahmen meiner Bachelorarbeit habe ich mich intensiv mit diesem noch relativ jungen Phänomen auseinandergesetzt. Bibliotheken sind als Bindeglied zwischen den Wissenschaftsverlagen und ihren eigenen Nutzern direkt von Schattenbibliotheken betroffen. Während sie auf der einen Seite von einer besseren Verhandlungsposition gegenüber Verlagen profitieren könnten, müssen sie auf der anderen Seite mit den illegalen Datenbanken konkurrieren. Wie kann diese Gradwanderung gelingen?
    Source
    B.I.T.online. 22(2019) H.5, S.397-404
  18. Herb, U.: Überwachungskapitalismus und Wissenschaftssteuerung (2019) 0.02
    0.02357858 = product of:
      0.07073574 = sum of:
        0.048600513 = product of:
          0.09720103 = sum of:
            0.09720103 = weight(_text_:seite in 5624) [ClassicSimilarity], result of:
              0.09720103 = score(doc=5624,freq=2.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.49506867 = fieldWeight in 5624, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5624)
          0.5 = coord(1/2)
        0.02213522 = product of:
          0.06640566 = sum of:
            0.06640566 = weight(_text_:29 in 5624) [ClassicSimilarity], result of:
              0.06640566 = score(doc=5624,freq=6.0), product of:
                0.12330827 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03505379 = queryNorm
                0.5385337 = fieldWeight in 5624, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5624)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    29. 6.2019 17:46:17
    4. 8.2019 19:52:29
    Issue
    [29. Juli 2019].
    Source
    https://www.heise.de/tp/features/Ueberwachungskapitalismus-und-Wissenschaftssteuerung-4480357.html?seite=all
  19. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.022005301 = product of:
      0.1320318 = sum of:
        0.1320318 = sum of:
          0.046117425 = weight(_text_:web in 115) [ClassicSimilarity], result of:
            0.046117425 = score(doc=115,freq=10.0), product of:
              0.11439841 = queryWeight, product of:
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.03505379 = queryNorm
              0.40312994 = fieldWeight in 115, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                3.2635105 = idf(docFreq=4597, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
          0.08591438 = weight(_text_:seite in 115) [ClassicSimilarity], result of:
            0.08591438 = score(doc=115,freq=4.0), product of:
              0.19633847 = queryWeight, product of:
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.03505379 = queryNorm
              0.43758303 = fieldWeight in 115, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.601063 = idf(docFreq=443, maxDocs=44218)
                0.0390625 = fieldNorm(doc=115)
      0.16666667 = coord(1/6)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Theme
    Semantic Web
  20. Helbing, D.: ¬Das große Scheitern (2019) 0.02
    0.020421777 = product of:
      0.061265327 = sum of:
        0.048600513 = product of:
          0.09720103 = sum of:
            0.09720103 = weight(_text_:seite in 5599) [ClassicSimilarity], result of:
              0.09720103 = score(doc=5599,freq=2.0), product of:
                0.19633847 = queryWeight, product of:
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.03505379 = queryNorm
                0.49506867 = fieldWeight in 5599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.601063 = idf(docFreq=443, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5599)
          0.5 = coord(1/2)
        0.012664813 = product of:
          0.037994437 = sum of:
            0.037994437 = weight(_text_:22 in 5599) [ClassicSimilarity], result of:
              0.037994437 = score(doc=5599,freq=2.0), product of:
                0.1227524 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03505379 = queryNorm
                0.30952093 = fieldWeight in 5599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5599)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    25.12.2019 14:19:22
    Series
    Startseite - IT/Tech - Aktuelle Seite: Digitalisierung und Umweltschutz:

Languages

  • e 1636
  • d 510
  • f 3
  • i 2
  • a 1
  • hu 1
  • pt 1
  • sp 1
  • More… Less…

Types

  • a 1850
  • el 235
  • m 178
  • s 67
  • x 43
  • r 16
  • b 5
  • p 2
  • i 1
  • n 1
  • z 1
  • More… Less…

Themes

Subjects

Classifications