Search (1259 results, page 1 of 63)

  • × type_ss:"el"
  1. Van der Veer Martens, B.: Do citation systems represent theories of truth? (2001) 0.53
    0.52619284 = product of:
      0.65774107 = sum of:
        0.056695566 = weight(_text_:b in 3925) [ClassicSimilarity], result of:
          0.056695566 = score(doc=3925,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.3914457 = fieldWeight in 3925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.078125 = fieldNorm(doc=3925)
        0.14046025 = weight(_text_:van in 3925) [ClassicSimilarity], result of:
          0.14046025 = score(doc=3925,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.6161319 = fieldWeight in 3925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.078125 = fieldNorm(doc=3925)
        0.022536775 = weight(_text_:der in 3925) [ClassicSimilarity], result of:
          0.022536775 = score(doc=3925,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.2467987 = fieldWeight in 3925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3925)
        0.43804845 = sum of:
          0.35971972 = weight(_text_:veer in 3925) [ClassicSimilarity], result of:
            0.35971972 = score(doc=3925,freq=2.0), product of:
              0.36482546 = queryWeight, product of:
                8.924298 = idf(docFreq=15, maxDocs=44218)
                0.040880017 = queryNorm
              0.986005 = fieldWeight in 3925, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                8.924298 = idf(docFreq=15, maxDocs=44218)
                0.078125 = fieldNorm(doc=3925)
          0.078328736 = weight(_text_:22 in 3925) [ClassicSimilarity], result of:
            0.078328736 = score(doc=3925,freq=4.0), product of:
              0.14315486 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.040880017 = queryNorm
              0.54716086 = fieldWeight in 3925, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.078125 = fieldNorm(doc=3925)
      0.8 = coord(4/5)
    
    Date
    22. 7.2006 15:22:28
  2. Hafner, R.; Schelling, B.: Automatisierung der Sacherschließung mit Semantic Web Technologie (2015) 0.09
    0.08981761 = product of:
      0.14969602 = sum of:
        0.079373784 = weight(_text_:b in 8365) [ClassicSimilarity], result of:
          0.079373784 = score(doc=8365,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.54802394 = fieldWeight in 8365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.109375 = fieldNorm(doc=8365)
        0.031551484 = weight(_text_:der in 8365) [ClassicSimilarity], result of:
          0.031551484 = score(doc=8365,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34551817 = fieldWeight in 8365, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.109375 = fieldNorm(doc=8365)
        0.038770746 = product of:
          0.07754149 = sum of:
            0.07754149 = weight(_text_:22 in 8365) [ClassicSimilarity], result of:
              0.07754149 = score(doc=8365,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.5416616 = fieldWeight in 8365, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=8365)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Date
    22. 6.2015 16:08:38
  3. Wang, S.; Isaac, A.; Schopman, B.; Schlobach, S.; Meij, L. van der: Matching multilingual subject vocabularies (2009) 0.08
    0.079089336 = product of:
      0.13181555 = sum of:
        0.03401734 = weight(_text_:b in 3035) [ClassicSimilarity], result of:
          0.03401734 = score(doc=3035,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.23486741 = fieldWeight in 3035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=3035)
        0.084276155 = weight(_text_:van in 3035) [ClassicSimilarity], result of:
          0.084276155 = score(doc=3035,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.36967915 = fieldWeight in 3035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=3035)
        0.013522064 = weight(_text_:der in 3035) [ClassicSimilarity], result of:
          0.013522064 = score(doc=3035,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.14807922 = fieldWeight in 3035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=3035)
      0.6 = coord(3/5)
    
  4. Schreiber, G.; Amin, A.; Assem, M. van; Boer, V. de; Hardman, L.; Hildebrand, M.; Hollink, L.; Huang, Z.; Kersen, J. van; Niet, M. de; Omelayenko, B.; Ossenbruggen, J. van; Siebes, R.; Taekema, J.; Wielemaker, J.; Wielinga, B.: MultimediaN E-Culture demonstrator (2006) 0.08
    0.077631354 = product of:
      0.19407839 = sum of:
        0.048107784 = weight(_text_:b in 4648) [ClassicSimilarity], result of:
          0.048107784 = score(doc=4648,freq=4.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.3321527 = fieldWeight in 4648, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=4648)
        0.1459706 = weight(_text_:van in 4648) [ClassicSimilarity], result of:
          0.1459706 = score(doc=4648,freq=6.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.64030313 = fieldWeight in 4648, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=4648)
      0.4 = coord(2/5)
    
  5. Van Dijck, P.: Introduction to XFML (2003) 0.07
    0.072426945 = product of:
      0.18106736 = sum of:
        0.15891264 = weight(_text_:van in 2474) [ClassicSimilarity], result of:
          0.15891264 = score(doc=2474,freq=4.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.6970737 = fieldWeight in 2474, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0625 = fieldNorm(doc=2474)
        0.022154713 = product of:
          0.044309426 = sum of:
            0.044309426 = weight(_text_:22 in 2474) [ClassicSimilarity], result of:
              0.044309426 = score(doc=2474,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.30952093 = fieldWeight in 2474, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2474)
          0.5 = coord(1/2)
      0.4 = coord(2/5)
    
    Abstract
    Van Dijck builds up an example of actual XFML by showing how to organize tourist information about what restaurants in what cities feature which kind of music: <facet id="city">City</facet> and <topic id="ny" facetid="city"><name>New York</name></topic> combine to mean that New York is the name of a city internally represented as "ny". It is written in the usual clear and practical style of articles on xml.com. Highly recommended as an introduction for anyone interested in XFML.
    Source
    http://www.xml.com/lpt/a/2003/01/22/xfml.html
  6. Assem, M. van; Menken, M.R.; Schreiber, G.; Wielemaker, J.; Wielinga, B.: ¬A method for converting thesauri to RDF/OWL (2004) 0.07
    0.071494184 = product of:
      0.17873545 = sum of:
        0.039686892 = weight(_text_:b in 4644) [ClassicSimilarity], result of:
          0.039686892 = score(doc=4644,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 4644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4644)
        0.13904856 = weight(_text_:van in 4644) [ClassicSimilarity], result of:
          0.13904856 = score(doc=4644,freq=4.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.60993946 = fieldWeight in 4644, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4644)
      0.4 = coord(2/5)
    
    Source
    Proceedings of the 3rd International Semantic Web Conference (ISWC'04). Eds. D. Plexousakis and F. van Harmelen
  7. Schreiber, G.; Amin, A.; Assem, M. van; Boer, V. de; Hardman, L.; Hildebrand, M.; Omelayenko, B.; Ossenbruggen, J. van; Wielemaker, J.; Wielinga, B.; Tordai, A.; Aroyoa, L.: Semantic annotation and search of cultural-heritage collections : the MultimediaN E-Culture demonstrator (2008) 0.07
    0.066916905 = product of:
      0.16729227 = sum of:
        0.048107784 = weight(_text_:b in 4646) [ClassicSimilarity], result of:
          0.048107784 = score(doc=4646,freq=4.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.3321527 = fieldWeight in 4646, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=4646)
        0.11918448 = weight(_text_:van in 4646) [ClassicSimilarity], result of:
          0.11918448 = score(doc=4646,freq=4.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.5228053 = fieldWeight in 4646, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=4646)
      0.4 = coord(2/5)
    
  8. Wang, S.; Isaac, A.; Schlobach, S.; Meij, L. van der; Schopman, B.: Instance-based semantic interoperability in the cultural heritage (2012) 0.07
    0.06590778 = product of:
      0.109846294 = sum of:
        0.028347783 = weight(_text_:b in 125) [ClassicSimilarity], result of:
          0.028347783 = score(doc=125,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 125, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=125)
        0.07023013 = weight(_text_:van in 125) [ClassicSimilarity], result of:
          0.07023013 = score(doc=125,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.30806595 = fieldWeight in 125, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0390625 = fieldNorm(doc=125)
        0.011268388 = weight(_text_:der in 125) [ClassicSimilarity], result of:
          0.011268388 = score(doc=125,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.12339935 = fieldWeight in 125, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=125)
      0.6 = coord(3/5)
    
  9. Gehirn, Gedächtnis, neuronale Netze (1996) 0.06
    0.06170131 = product of:
      0.10283551 = sum of:
        0.05612575 = weight(_text_:b in 4661) [ClassicSimilarity], result of:
          0.05612575 = score(doc=4661,freq=4.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.3875115 = fieldWeight in 4661, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4661)
        0.027324388 = weight(_text_:der in 4661) [ClassicSimilarity], result of:
          0.027324388 = score(doc=4661,freq=6.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.29922754 = fieldWeight in 4661, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4661)
        0.019385373 = product of:
          0.038770746 = sum of:
            0.038770746 = weight(_text_:22 in 4661) [ClassicSimilarity], result of:
              0.038770746 = score(doc=4661,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.2708308 = fieldWeight in 4661, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4661)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Content
    Enthält die Beiträge: EPPING, B.: 100 Millionen Zellen und ein bißchen Strom (Informationsfluß); FLESCHNER, F.: Nicht ganz richtig im Kopf (Hirnschäden); RUBNER, J.: Auf der Spur des kleinen Unterschieds (Hormonhaushalt); REYE, B.: Blinde sehen, Lahme gehen (Neuroimplantate); EBERT, U.: Die Neuro-Industrie (Erkennungsdienst); SCHMITZ, U.: Die Kraft der Gedanken (Mindpower); ZICK, M.: Das Rätsel des Bewußtseins (Geisterjagd); N.N.: Das Beste aus zwei Welten (Online-Medizin); HÄGELE, M.: Literatur-Recherche auf dem Prüfstand (KnowledgeFinder); N.N.: Die Arzthelfer; N.N.: Mit der Stange im Nebel (Internet-Adressen)
    Date
    22. 7.2000 18:45:51
  10. Deutsche Nationalbibliographie : CD-ROM 1972-1985 (1997) 0.05
    0.05437425 = product of:
      0.09062375 = sum of:
        0.039686892 = weight(_text_:b in 4748) [ClassicSimilarity], result of:
          0.039686892 = score(doc=4748,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 4748, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4748)
        0.031551484 = weight(_text_:der in 4748) [ClassicSimilarity], result of:
          0.031551484 = score(doc=4748,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34551817 = fieldWeight in 4748, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4748)
        0.019385373 = product of:
          0.038770746 = sum of:
            0.038770746 = weight(_text_:22 in 4748) [ClassicSimilarity], result of:
              0.038770746 = score(doc=4748,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.2708308 = fieldWeight in 4748, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4748)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Die DNB-CD retro 2 enthält alle in Deutschland erschienenen Publikationen der Bibliographienjahrgänge 1972 bis 1985 (ca. 1,2 Millionen Datensätze). Es handelt sich um Monographien, Zeitschriften, Karten und Hochschulschriften, die als Beleg- oder Pflichtexemplare bei der Deutschen Bibliothek Frankfurt am Main eingegangen sind. Nicht enthalten sind Germanica und Übersetzungen deutschsprachiger Werke. Als Suchkategorien stehen u.a. Autor, Stichwort, Titel oder Reihe zur Verfügung, die miteinander verknüpft werden können. Die sachliche Recherche ist über die Sachgruppen der DNB möglich. Eine Konkordanz der verschiedenen Sachgruppen ist direkt in den Online-Hilfetexte enthalten
    Date
    7. 5.2000 10:38:22
    Type
    b
  11. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.05
    0.05437425 = product of:
      0.09062375 = sum of:
        0.039686892 = weight(_text_:b in 4324) [ClassicSimilarity], result of:
          0.039686892 = score(doc=4324,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.27401197 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.031551484 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.031551484 = score(doc=4324,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.019385373 = product of:
          0.038770746 = sum of:
            0.038770746 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.038770746 = score(doc=4324,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  12. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.05
    0.054098263 = product of:
      0.09016377 = sum of:
        0.045356452 = weight(_text_:b in 3284) [ClassicSimilarity], result of:
          0.045356452 = score(doc=3284,freq=8.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.31315655 = fieldWeight in 3284, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.033729956 = weight(_text_:der in 3284) [ClassicSimilarity], result of:
          0.033729956 = score(doc=3284,freq=28.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.36937445 = fieldWeight in 3284, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3284)
        0.0110773565 = product of:
          0.022154713 = sum of:
            0.022154713 = weight(_text_:22 in 3284) [ClassicSimilarity], result of:
              0.022154713 = score(doc=3284,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.15476047 = fieldWeight in 3284, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3284)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
    Date
    22. 1.2010 14:41:24
  13. Wegner, B.: Mathematik im Blickpunkt : Wissensmanagement in der Mathematik - 140 Jahre Information zur Literatur weltweit (2008) 0.05
    0.05334526 = product of:
      0.13336314 = sum of:
        0.08874261 = weight(_text_:b in 4081) [ClassicSimilarity], result of:
          0.08874261 = score(doc=4081,freq=10.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.61270946 = fieldWeight in 4081, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
        0.044620536 = weight(_text_:der in 4081) [ClassicSimilarity], result of:
          0.044620536 = score(doc=4081,freq=16.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.4886365 = fieldWeight in 4081, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4081)
      0.4 = coord(2/5)
    
    Content
    Inhalt: Mathematik im Web: die Informationsdienste von FIZ Karlsruhe/Zentralblatt MATH - eine Bestandsaufnahme - O. Ninnemann Die Anfänge des Wissensmanagements in der Mathematik: das "Jahrbuch über die Fortschritte der Mathematik" - S. Göbel Mathematik-Information im Wechsel der Zeiten und politischen Systeme - B. Wegner MathEduc - Informationen zum Lernen und Lehren von Mathematik - B. Ruffer-Henn, B. Wegner Die WDML - Ideen und Wirklichkeit - B. Wegner Über Suchmaschinen und Datenbanken - W. Sperber Der Mathematiker Wolfgang Doeblin (1915-1940) - Recherchen im Internet - S. Göbel Kryptographie und Turing-Maschinen - E Rossi Wo spielt die Musik im Zentralblatt? Recherchen am Rande der Mathematik - K.-D. Kiermeier Vom Vierfarbenproblem zum Vierfarbensatz - eine Analyse mit Hilfe des Zentralblatt MATH - H. Kröger
    Source
    http://www.zentralblatt-math.org/jahr-der-mathematik/jahr-der-mathematik.pdf
  14. Haslhofer, B.: Uniform SPARQL access to interlinked (digital library) sources (2007) 0.05
    0.051324353 = product of:
      0.085540585 = sum of:
        0.045356452 = weight(_text_:b in 541) [ClassicSimilarity], result of:
          0.045356452 = score(doc=541,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.31315655 = fieldWeight in 541, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0625 = fieldNorm(doc=541)
        0.01802942 = weight(_text_:der in 541) [ClassicSimilarity], result of:
          0.01802942 = score(doc=541,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.19743896 = fieldWeight in 541, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=541)
        0.022154713 = product of:
          0.044309426 = sum of:
            0.044309426 = weight(_text_:22 in 541) [ClassicSimilarity], result of:
              0.044309426 = score(doc=541,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.30952093 = fieldWeight in 541, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=541)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Content
    Präsentation während der Veranstaltung "Networked Knowledge Organization Systems and Services: The 6th European Networked Knowledge Organization Systems (NKOS) Workshop, Workshop at the 11th ECDL Conference, Budapest, Hungary, September 21st 2007".
    Date
    26.12.2011 13:22:46
  15. Laaff, M.: Googles genialer Urahn (2011) 0.05
    0.05016252 = product of:
      0.083604194 = sum of:
        0.049660202 = weight(_text_:van in 4610) [ClassicSimilarity], result of:
          0.049660202 = score(doc=4610,freq=4.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.21783553 = fieldWeight in 4610, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4610)
        0.027020643 = weight(_text_:der in 4610) [ClassicSimilarity], result of:
          0.027020643 = score(doc=4610,freq=46.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.29590124 = fieldWeight in 4610, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4610)
        0.0069233477 = product of:
          0.013846695 = sum of:
            0.013846695 = weight(_text_:22 in 4610) [ClassicSimilarity], result of:
              0.013846695 = score(doc=4610,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.09672529 = fieldWeight in 4610, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.01953125 = fieldNorm(doc=4610)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Er plante ein mechanisches Gehirn und kabellose Kommunikation: Der belgische Bibliothekar Paul Otlet entwarf Anfang des 20. Jahrhunderts die erste Suchmaschine der Welt - lange vor Computern und Internet. Warum gerieten seine revolutionären Ideen in Vergessenheit?
    Content
    "Die erste Suchmaschine der Welt ist aus Holz und Papier gebaut. Mannshohe, dunkelbraune Schränke reihen sich aneinander, darin Zettelkästen mit Karteikarten. "Sechzehn Millionen Karteikarten", sagt Jaques Gillen und legt die Hand auf den Griff eines Schrankes. Gillen ist Archivar im Mundaneum - der Institution, die diesen gigantischen Katalog in den zwanziger Jahren des vergangenen Jahrhunderts betrieb. Anfragen gingen per Brief oder Telegramm in Brüssel ein, bis zu 1500 im Jahr. Antworten wurden per Hand herausgesucht, das konnte Wochen dauern. Ein Papier-Google, entwickelt Jahrzehnte vor dem Internet, ohne Computer. Erfinder des Mundaneums war der belgische Bibliothekar Paul Otlet. Der gelernte Jurist aus bürgerlichem Hause wollte das Wissen der Welt kartografieren und in Holzschränken aufbewahren. Seine Vision: Das Mundaneum sollte alle Bücher erfassen, die jemals erschienen sind - und sie über ein eigens entwickeltes Archivsystem miteinander verbinden. Archivar Gillen fischt eine Karteikarte aus einem Kasten. Aus dem Zahlenwirrwarr darauf kann er dutzende Informationen über das Buch, auf das verwiesen wird, ablesen. Mit seinem Archivsystem, darin sind sich viele Forscher heute einig, hat Otlet praktisch schon um die Jahrhundertwende den Hypertext erfunden - das Netz von Verknüpfungen, die uns heute durch das Internet navigieren. "Man könnte Otlet als einen Vordenker des Internets bezeichnen", sagt Gillen und steckt die Karteikarte zurück.
    Karteikästen, Telefone, Multimedia-Möbel 1934 entwickelte Otlet die Idee eines weltweiten Wissens-"Netzes". Er versuchte, kaum dass Radio und Fernsehen erfunden waren, Multimedia-Konzepte zu entwickeln, um die Kooperationsmöglichkeiten für Forscher zu verbessern. Otlet zerbrach sich den Kopf darüber, wie Wissen über große Distanzen zugänglich gemacht werden kann. Er entwickelte Multimedia-Arbeitsmöbel, die mit Karteikästen, Telefonen und anderen Features das versuchten, was heute an jedem Rechner möglich ist. Auch ohne die Hilfe elektronischer Datenverarbeitung entwickelte er Ideen, deren Umsetzung wir heute unter Begriffen wie Web 2.0 oder Wikipedia kennen. Trotzdem sind sein Name und seine Arbeit heute weitgehend in Vergessenheit geraten. Als Vordenker von Hypertext und Internet gelten die US-Amerikaner Vannevar Bush, Ted Nelson und Douglas Engelbart. Die Überbleibsel der Mundaneum-Sammlung vermoderten jahrzehntelang auf halb verfallenen Dachböden.
    Praktischere Medien sollen Bücher ersetzen Dabei was das Mundaneum im frühen 20. Jahrhundert zunächst eine schillernde Erfolgsgeschichte. An dem Projekt hatten Otlet und sein Mitstreiter, der spätere Friedensnobelpreisträger Henri La Fontaine, schon seit 1895 gearbeitet. 1920 öffnete das Mundaneum in einem Prunkbau im Herzen von Brüssel seine Türen - eine Mischung aus Besuchermuseum und Gelehrtentreff, mit einem gigantischen Wissenskatalog und Archiv. Darin wurden nicht nur Bücher erfasst, sondern auch zahllose Zeitungen, Poster, über 200.000 Postkarten sowie Ausstellungsstücke, von Flugzeugen bis zu Telefonen. Riesige Materialmengen, an denen sich das Projekt schon bald zu verschlucken drohte. Doch Otlet und seine Mitstreiter hatten eine Mission: Sie waren davon überzeugt, dass die globale Verbreitung von Wissen den Frieden fördern könne. Auch darum gab es einen engen Austausch mit anderen Forschungseinrichtungen im Ausland. Parallel zu dieser Sammelwut arbeitete Otlet an neuen Ideen für das papierlose Verbreiten von Wissen. Bücher waren für ihn nicht mehr als "Container für Ideen", die durch praktischere Medien ersetzt werden könnten. Durch Grafiken und Schaubilder zum Beispiel, von denen er selbst zahllose anfertigte. Platzsparend, weil man sie auf Mikrofilm bannen konnte. International verständlich. Mit Ton und Film wollte er Informationen schneller, einfacher und weiter transportieren.
    "Ein universelles Netzwerk, das die Verbreitung von Wissen erlaubt." In seinem 400 Seiten dicken Buch "Traité de documentation" sammelte er all diese Ideen. Er skizzierte eine wissenschaftliche Konferenz, die per Telefon übertragen werden sollte und spann die Idee weiter - warum nicht auch mit Bildübertragung? "Radiotelefotografie"! Grammophone sollten gesprochene Informationen archivierbar und reproduzierbar machen. "Kürzlich haben wir einen Text aus dem Jahr 1907 gefunden, in dem er von einem mobilen Telefon spricht", sagt der Archivar Gillen, während er behutsam die dünnen Original-Skizzen Otlets von all diesen Visionen wieder einpackt. Besonders das neue Medium Radio faszinierte Otlet - ermöglichte es doch, Informationen kabellos über weite Strecken zu versenden und dabei beliebig viele Empfänger zu erreichen. Für ihn ein kleiner Schritt zu seinem Traum, den er 1934 formulierte: einem "universellen Netzwerk, das die Verbreitung von Wissen ohne Beschränkung erlaubt." Jeder Mensch würde "im Sessel" auf den aktuellen Stand des Weltwissens zugreifen können, "applaudieren, Ovationen geben und im Chor singen." Alle weltweiten Entwicklungen würden aufgezeichnet werden, sobald sie entstünden: "So entsteht ein bewegliches Bild der Welt - ihr Gedächtnis, ihr wahres Duplikat." Ein "mechanisches, kollektives Gehirn".
    Die Regierung strich 1934 die Subventionen, das Mundaneum schloss Parallel zu diesen visionären Gedanken erlebte Otlets Mundaneum einen herben Rückschlag. Es musste 1934 schließen, nachdem seine Geldgeber aus der belgischen Regierung das Interesse an dem Projekt verloren hatten. Als 1940 die Nazis in Brüssel einmarschierten, entfernten sie die Sammlung aus dem zentralen "Palais Mondial", um dort Nazi-Kunst auszustellen. Otlets Vision vom Frieden durch Wissen war gescheitert, er starb 1944 verarmt und verbittert. Erst 1968 entdeckte der amerikanische Forscher W. Boyd Rayward Teile der Sammlung wieder, begann zu forschen und engagierte sich so lange, bis das Mundaneum 1998 wiedereröffnet wurde. Ein paar Nummern kleiner und im Provinzstädtchen Mons, etwa 30 Kilometer von Brüssel entfernt. Dort sortieren Archivar Gillen und seine Kollegen bis heute die Masse von Dokumenten. Sechs Kilometer Archivmaterial. Über 60 Jahre nach seinem Tod sind viele Ideen Otlets Wirklichkeit geworden. Und Forscher wie Netzexperten interessieren sich für seine Überlegungen zum "mechanischen Gehirn". Seine Vorstellung vom dynamischen Weltwissen, das ständig ergänzt werden muss und an dem kollektiv gearbeitet wird, erinnert stark an das Konzept der Internet-Enzyklopädie Wikipedia.
    Der Traum vom dynamischen, ständig wachsenden Wissensnetz Auch, weil Otlet bereits darüber nachdachte, wie in seinem vernetzten Wissenskatalog Anmerkungen einfließen könnten, die Fehler korrigieren oder Widerspruch abbilden. Vor dieser Analogie warnt jedoch Charles van den Heuvel von der Königlichen Niederländischen Akademie der Künste und Wissenschaften: Seiner Interpretation zufolge schwebte Otlet ein System vor, in dem Wissen hierarchisch geordnet ist: Nur eine kleine Gruppe von Wissenschaftlern sollte an der Einordnung von Wissen arbeiten; Bearbeitungen und Anmerkungen sollten, anders etwa als bei der Wikipedia, nicht mit der Information verschmelzen, sondern sie lediglich ergänzen. Das Netz, das Otlet sich ausmalte, ging weit über das World Wide Web mit seiner Hypertext-Struktur hinaus. Otlet wollte nicht nur Informationen miteinander verbunden werden - die Links sollten noch zusätzlich mit Bedeutung aufgeladen werden. Viele Experten sind sich einig, dass diese Idee von Otlet viele Parallelen zu dem Konzept des "semantischen Netz" aufweist. Dessen Ziel ist es, die Bedeutung von Informationen für Rechner verwertbar zu machen - so dass Informationen von ihnen interpretiert werden und maschinell weiterverarbeitet werden können. Projekte, die sich an einer Verwirklichung des semantischen Netzes versuchen, könnten von einem Blick auf Otlets Konzepte profitieren, so van den Heuvel, von dessen Überlegungen zu Hierarchie und Zentralisierung in dieser Frage. Im Mundaneum in Mons arbeitet man derzeit daran, Otlets Arbeiten zu digitalisieren, um sie ins Netz zu stellen. Das dürfte zwar noch ziemlich lange dauern, warnt Archivar Gillen. Aber wenn es soweit ist, wird sich endlich Otlets Vision erfüllen: Seine Sammlung des Wissens wird der Welt zugänglich sein. Papierlos, für jeden abrufbar."
    Date
    24.10.2008 14:19:22
    Theme
    Geschichte der Kataloge
  16. Open Knowledge Foundation: Prinzipien zu offenen bibliographischen Daten (2011) 0.05
    0.05013824 = product of:
      0.08356373 = sum of:
        0.028347783 = weight(_text_:b in 4399) [ClassicSimilarity], result of:
          0.028347783 = score(doc=4399,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.19572285 = fieldWeight in 4399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.03563377 = weight(_text_:der in 4399) [ClassicSimilarity], result of:
          0.03563377 = score(doc=4399,freq=20.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.390223 = fieldWeight in 4399, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4399)
        0.019582184 = product of:
          0.039164368 = sum of:
            0.039164368 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.039164368 = score(doc=4399,freq=4.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.27358043 = fieldWeight in 4399, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Produzenten bibliographischer Daten wie Bibliotheken, Verlage, Universitäten, Wissenschaftler oder soziale, webbasierte Literaturverwaltungsplattformen spielen eine wichtige Rolle bei der Entwicklung menschlichen Wissens. Damit ihre Arbeit der Gesellschaft in vollem Umfang zugutekommt, ist es zwingend erforderlich, bibliographische Daten zu öffnen, das heißt für alle zur beliebigen Nutzung frei verfügbar zu machen.
    Content
    "Bibliographische Daten Um den Geltungsbereich der Prinzipien festzulegen, wird in diesem ersten Teil der zugrundeliegende Begriff bibliographischer Daten erläutert. Kerndaten Bibliographische Daten bestehen aus bibliographischen Beschreibungen. Eine bibliographische Beschreibung beschreibt eine bibliographische Ressource (Artikel, Monographie etc. - ob gedruckt oder elektronisch) zum Zwecke 1. der Identifikation der beschriebenen Ressource, d.h. des Zeigens auf eine bestimmte Ressource in der Gesamtheit aller bibliographischer Ressourcen und 2. der Lokalisierung der beschriebenen Ressource, d.h. eines Hinweises, wo die beschriebene Ressource aufzufinden ist. Traditionellerweise erfüllte eine Beschreibung beide Zwecke gleichzeitig, indem sie Information lieferte über: Autor(en) und Herausgeber, Titel, Verlag, Veröffentlichungsdatum und -ort, Identifizierung des übergeordneten Werks (z.B. einer Zeitschrift), Seitenangaben. Im Web findet Identifikation statt mittels Uniform Resource Identifiers (URIs) wie z.B. URNs oder DOIs. Lokalisierung wird ermöglicht durch HTTP-URIs, die auch als Uniform Resource Locators (URLs) bezeichnet werden. Alle URIs für bibliographische Ressourcen fallen folglich unter den engen Begriff bibliographischer Daten. Sekundäre Daten Eine bibliographische Beschreibung kann andere Informationen enthalten, die unter den Begriff bibliographischer Daten fallen, beispielsweise Nicht-Web-Identifikatoren (ISBN, LCCN, OCLC etc.), Angaben zum Urheberrechtsstatus, administrative Daten und mehr; diese Daten können von Bibliotheken, Verlagen, Wissenschaftlern, Online-Communities für Buchliebhaber, sozialen Literaturverwaltungssystemen und Anderen produziert sein. Darüber hinaus produzieren Bibliotheken und verwandte Institutionen kontrollierte Vokabulare zum Zwecke der bibliographischen Beschreibung wie z. B. Personen- und Schlagwortnormdateien, Klassifikationen etc., die ebenfalls unter den Begriff bibliographischer Daten fallen."
    Date
    22. 3.2011 18:22:29
  17. IBZ-CD-ROM: Internationale Bibliographie der Zeitschriftenliteratur aus allen Gebieten des Wissens : CD-ROM (1994) 0.05
    0.048294555 = product of:
      0.12073639 = sum of:
        0.09819961 = weight(_text_:b in 3468) [ClassicSimilarity], result of:
          0.09819961 = score(doc=3468,freq=6.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.6780039 = fieldWeight in 3468, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.078125 = fieldNorm(doc=3468)
        0.022536775 = weight(_text_:der in 3468) [ClassicSimilarity], result of:
          0.022536775 = score(doc=3468,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.2467987 = fieldWeight in 3468, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=3468)
      0.4 = coord(2/5)
    
    Footnote
    Rez. in: IfB 3(1995) H.1, S.32-41 (B. Hoffmann); ZfBB 42(1995) H.2, S.188-190 (B. Homann)
    Type
    b
  18. Wielinga, B.; Wielemaker, J.; Schreiber, G.; Assem, M. van: Methods for porting resources to the Semantic Web (2004) 0.05
    0.047317397 = product of:
      0.118293494 = sum of:
        0.03401734 = weight(_text_:b in 4640) [ClassicSimilarity], result of:
          0.03401734 = score(doc=4640,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.23486741 = fieldWeight in 4640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=4640)
        0.084276155 = weight(_text_:van in 4640) [ClassicSimilarity], result of:
          0.084276155 = score(doc=4640,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.36967915 = fieldWeight in 4640, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.046875 = fieldNorm(doc=4640)
      0.4 = coord(2/5)
    
  19. Schröder, B.: Geschichtsverdrehungen (2003) 0.05
    0.046606503 = product of:
      0.0776775 = sum of:
        0.03401734 = weight(_text_:b in 1373) [ClassicSimilarity], result of:
          0.03401734 = score(doc=1373,freq=2.0), product of:
            0.14483635 = queryWeight, product of:
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.040880017 = queryNorm
            0.23486741 = fieldWeight in 1373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.542962 = idf(docFreq=3476, maxDocs=44218)
              0.046875 = fieldNorm(doc=1373)
        0.027044129 = weight(_text_:der in 1373) [ClassicSimilarity], result of:
          0.027044129 = score(doc=1373,freq=8.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.29615843 = fieldWeight in 1373, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1373)
        0.016616033 = product of:
          0.033232067 = sum of:
            0.033232067 = weight(_text_:22 in 1373) [ClassicSimilarity], result of:
              0.033232067 = score(doc=1373,freq=2.0), product of:
                0.14315486 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.040880017 = queryNorm
                0.23214069 = fieldWeight in 1373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1373)
          0.5 = coord(1/2)
      0.6 = coord(3/5)
    
    Abstract
    Die Microsoft Encarta sieht die Geschichte Palästinas aus einer einseitigen Perspektive. Wer in alten Zeiten etwas über die Welt erfahren wollte, kaufte sich den legendären "Brockhaus", Meyers Konversationslexikon oder das "Große Bertelsmann Volkslexikon". Derartige Bücher waren auch innenarchitektonisch wertvoll, weil man sie als Zeichen der Bildung, gemessen in Kubikmetern, in der Schrankwand gut sichtbar platzieren konnte. Nachschlagewerke waren praktisch "für die Wissensbedürfnisse des bürgerlichen Alltags". Für den bürgerlichen Alltag mit dem Computer, der von Windows-Produkten wimmelt, bietet sich heute die Microsoft Encarta als Compact Disk an, eine Enzyklopädie des Wissens für den Hausgebrauch. Nur steht dort an manchen Stellen grober Unfug. Und wenn es um Israel geht, fragt man sich, ob die in der deutschen "Encarta" vertretenen Thesen nur schlecht redigiert sind oder ob Microsoft anti-israelische Vorurteile bewusst fördern will. Das jüdische Portal haGalil spricht sogar von "Geschichtsverdrehung unter enzyklopädischem Deckmäntelchen"
    Date
    24. 2.2003 14:22:57
  20. Tonkin, E.; Baptista, A.A.; Hooland, S. van; Resmini, A.; Mendéz, E.; Neville, L.: Kinds of Tags : a collaborative research study on tag usage and structure (2007) 0.05
    0.04563917 = product of:
      0.114097916 = sum of:
        0.098322175 = weight(_text_:van in 531) [ClassicSimilarity], result of:
          0.098322175 = score(doc=531,freq=2.0), product of:
            0.22797108 = queryWeight, product of:
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.040880017 = queryNorm
            0.43129233 = fieldWeight in 531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.5765896 = idf(docFreq=454, maxDocs=44218)
              0.0546875 = fieldNorm(doc=531)
        0.015775742 = weight(_text_:der in 531) [ClassicSimilarity], result of:
          0.015775742 = score(doc=531,freq=2.0), product of:
            0.091316424 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.040880017 = queryNorm
            0.17275909 = fieldWeight in 531, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=531)
      0.4 = coord(2/5)
    
    Content
    Präsentation während der Veranstaltung "Networked Knowledge Organization Systems and Services: The 6th European Networked Knowledge Organization Systems (NKOS) Workshop, Workshop at the 11th ECDL Conference, Budapest, Hungary, September 21st 2007".

Years

Languages

  • d 905
  • e 316
  • a 12
  • m 5
  • el 2
  • f 1
  • nl 1
  • no 1
  • s 1
  • More… Less…

Types

  • a 554
  • i 87
  • b 37
  • m 30
  • x 22
  • r 21
  • n 12
  • s 10
  • p 4
  • l 3
  • More… Less…

Themes

Classifications