Search (73 results, page 1 of 4)

  • × type_ss:"x"
  1. Verwer, K.: Freiheit und Verantwortung bei Hans Jonas (2011) 0.25
    0.24556947 = product of:
      0.5729954 = sum of:
        0.052090492 = product of:
          0.26045245 = sum of:
            0.26045245 = weight(_text_:3a in 973) [ClassicSimilarity], result of:
              0.26045245 = score(doc=973,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                1.1240361 = fieldWeight in 973, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.09375 = fieldNorm(doc=973)
          0.2 = coord(1/5)
        0.26045245 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.26045245 = score(doc=973,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
        0.26045245 = weight(_text_:2f in 973) [ClassicSimilarity], result of:
          0.26045245 = score(doc=973,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            1.1240361 = fieldWeight in 973, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.09375 = fieldNorm(doc=973)
      0.42857143 = coord(3/7)
    
    Content
    Vgl.: http%3A%2F%2Fcreativechoice.org%2Fdoc%2FHansJonas.pdf&usg=AOvVaw1TM3teaYKgABL5H9yoIifA&opi=89978449.
  2. Shala, E.: ¬Die Autonomie des Menschen und der Maschine : gegenwärtige Definitionen von Autonomie zwischen philosophischem Hintergrund und technologischer Umsetzbarkeit (2014) 0.16
    0.16424556 = product of:
      0.28742972 = sum of:
        0.021704374 = product of:
          0.108521864 = sum of:
            0.108521864 = weight(_text_:3a in 4388) [ClassicSimilarity], result of:
              0.108521864 = score(doc=4388,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46834838 = fieldWeight in 4388, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4388)
          0.2 = coord(1/5)
        0.04868162 = weight(_text_:intelligenz in 4388) [ClassicSimilarity], result of:
          0.04868162 = score(doc=4388,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.31368437 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.108521864 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.108521864 = score(doc=4388,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
        0.108521864 = weight(_text_:2f in 4388) [ClassicSimilarity], result of:
          0.108521864 = score(doc=4388,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 4388, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4388)
      0.5714286 = coord(4/7)
    
    Abstract
    Werden Maschinen mit Begriffen beschrieben, die ursprünglich der Beschreibung des Menschen dienen, so liegt zunächst der Verdacht nahe, dass jene Maschinen spezifischmenschliche Fähigkeiten oder Eigenschaften besitzen. Für körperliche Fähigkeiten, die mechanisch nachgeahmt werden, hat sich in der Alltagssprache eine anthropomorphisierende Sprechweise bereits etabliert. So wird kaum in Frage gestellt, dass bestimmte Maschinen weben, backen, sich bewegen oder arbeiten können. Bei nichtkörperlichen Eigenschaften, etwa kognitiver, sozialer oder moralischer Art sieht dies jedoch anders aus. Dass mittlerweile intelligente und rechnende Maschinen im alltäglichen Sprachgebrauch Eingang gefunden haben, wäre jedoch undenkbar ohne den langjährigen Diskurs über Künstliche Intelligenz, welcher insbesondere die zweite Hälfte des vergangenen Jahrhunderts geprägt hat. In jüngster Zeit ist es der Autonomiebegriff, welcher zunehmend Verwendung zur Beschreibung neuer Technologien findet, wie etwa "autonome mobile Roboter" oder "autonome Systeme". Dem Begriff nach rekurriert die "Autonomie" jener Technologien auf eine bestimmte Art technologischen Fortschritts, die von der Fähigkeit zur Selbstgesetzgebung herrührt. Dies wirft aus philosophischer Sicht jedoch die Frage auf, wie die Selbstgesetzgebung in diesem Fall definiert ist, zumal sich der Autonomiebegriff in der Philosophie auf die politische oder moralische Selbstgesetzgebung von Menschen oder Menschengruppen beziehungsweise ihre Handlungen bezieht. Im Handbuch Robotik hingegen führt der Autor geradezu beiläufig die Bezeichnung "autonom" ein, indem er prognostiziert, dass "[.] autonome Roboter in Zukunft sogar einen Großteil der Altenbetreuung übernehmen werden."
    Footnote
    Vgl. unter: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=2ahUKEwizweHljdbcAhVS16QKHXcFD9QQFjABegQICRAB&url=https%3A%2F%2Fwww.researchgate.net%2Fpublication%2F271200105_Die_Autonomie_des_Menschen_und_der_Maschine_-_gegenwartige_Definitionen_von_Autonomie_zwischen_philosophischem_Hintergrund_und_technologischer_Umsetzbarkeit_Redigierte_Version_der_Magisterarbeit_Karls&usg=AOvVaw06orrdJmFF2xbCCp_hL26q.
  3. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.11
    0.11352686 = product of:
      0.264896 = sum of:
        0.13022622 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13022622 = score(doc=563,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13022622 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13022622 = score(doc=563,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.0044435547 = product of:
          0.022217773 = sum of:
            0.022217773 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.022217773 = score(doc=563,freq=2.0), product of:
                0.09570822 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027330918 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.2 = coord(1/5)
      0.42857143 = coord(3/7)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  4. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.11
    0.11268019 = product of:
      0.26292044 = sum of:
        0.017363498 = product of:
          0.08681749 = sum of:
            0.08681749 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.08681749 = score(doc=5820,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.2 = coord(1/5)
        0.12277847 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12277847 = score(doc=5820,freq=4.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.12277847 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.12277847 = score(doc=5820,freq=4.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.42857143 = coord(3/7)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  5. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.10
    0.10232062 = product of:
      0.2387481 = sum of:
        0.021704374 = product of:
          0.108521864 = sum of:
            0.108521864 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.108521864 = score(doc=4997,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.2 = coord(1/5)
        0.108521864 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.108521864 = score(doc=4997,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.108521864 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.108521864 = score(doc=4997,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.42857143 = coord(3/7)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  6. Piros, A.: Az ETO-jelzetek automatikus interpretálásának és elemzésének kérdései (2018) 0.10
    0.10232062 = product of:
      0.2387481 = sum of:
        0.021704374 = product of:
          0.108521864 = sum of:
            0.108521864 = weight(_text_:3a in 855) [ClassicSimilarity], result of:
              0.108521864 = score(doc=855,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46834838 = fieldWeight in 855, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=855)
          0.2 = coord(1/5)
        0.108521864 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.108521864 = score(doc=855,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
        0.108521864 = weight(_text_:2f in 855) [ClassicSimilarity], result of:
          0.108521864 = score(doc=855,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 855, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=855)
      0.42857143 = coord(3/7)
    
    Content
    Vgl. auch: New automatic interpreter for complex UDC numbers. Unter: <https%3A%2F%2Fudcc.org%2Ffiles%2FAttilaPiros_EC_36-37_2014-2015.pdf&usg=AOvVaw3kc9CwDDCWP7aArpfjrs5b>
  7. Gabler, S.: Vergabe von DDC-Sachgruppen mittels eines Schlagwort-Thesaurus (2021) 0.10
    0.10232062 = product of:
      0.2387481 = sum of:
        0.021704374 = product of:
          0.108521864 = sum of:
            0.108521864 = weight(_text_:3a in 1000) [ClassicSimilarity], result of:
              0.108521864 = score(doc=1000,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46834838 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1000)
          0.2 = coord(1/5)
        0.108521864 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.108521864 = score(doc=1000,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
        0.108521864 = weight(_text_:2f in 1000) [ClassicSimilarity], result of:
          0.108521864 = score(doc=1000,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.46834838 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1000)
      0.42857143 = coord(3/7)
    
    Content
    Master thesis Master of Science (Library and Information Studies) (MSc), Universität Wien. Advisor: Christoph Steiner. Vgl.: https://www.researchgate.net/publication/371680244_Vergabe_von_DDC-Sachgruppen_mittels_eines_Schlagwort-Thesaurus. DOI: 10.25365/thesis.70030. Vgl. dazu die Präsentation unter: https://www.google.com/url?sa=i&rct=j&q=&esrc=s&source=web&cd=&ved=0CAIQw7AJahcKEwjwoZzzytz_AhUAAAAAHQAAAAAQAg&url=https%3A%2F%2Fwiki.dnb.de%2Fdownload%2Fattachments%2F252121510%2FDA3%2520Workshop-Gabler.pdf%3Fversion%3D1%26modificationDate%3D1671093170000%26api%3Dv2&psig=AOvVaw0szwENK1or3HevgvIDOfjx&ust=1687719410889597&opi=89978449.
  8. Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005) 0.08
    0.08185649 = product of:
      0.19099846 = sum of:
        0.017363498 = product of:
          0.08681749 = sum of:
            0.08681749 = weight(_text_:3a in 701) [ClassicSimilarity], result of:
              0.08681749 = score(doc=701,freq=2.0), product of:
                0.23171183 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.027330918 = queryNorm
                0.3746787 = fieldWeight in 701, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=701)
          0.2 = coord(1/5)
        0.08681749 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08681749 = score(doc=701,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
        0.08681749 = weight(_text_:2f in 701) [ClassicSimilarity], result of:
          0.08681749 = score(doc=701,freq=2.0), product of:
            0.23171183 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.027330918 = queryNorm
            0.3746787 = fieldWeight in 701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=701)
      0.42857143 = coord(3/7)
    
    Content
    Vgl.: http%3A%2F%2Fdigbib.ubka.uni-karlsruhe.de%2Fvolltexte%2Fdocuments%2F1627&ei=tAtYUYrBNoHKtQb3l4GYBw&usg=AFQjCNHeaxKkKU3-u54LWxMNYGXaaDLCGw&sig2=8WykXWQoDKjDSdGtAakH2Q&bvm=bv.44442042,d.Yms.
  9. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.01717827 = product of:
      0.12024788 = sum of:
        0.12024788 = weight(_text_:computertechnik in 115) [ClassicSimilarity], result of:
          0.12024788 = score(doc=115,freq=2.0), product of:
            0.24390927 = queryWeight, product of:
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.027330918 = queryNorm
            0.4930025 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.924298 = idf(docFreq=15, maxDocs=44218)
              0.0390625 = fieldNorm(doc=115)
      0.14285715 = coord(1/7)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
  10. Parsian, D.: Überlegungen zur Aufstellungssystematik und Reklassifikation an der Fachbereichsbibliothek Afrikawissenschaften und Orientalistik (2007) 0.02
    0.016406558 = product of:
      0.057422955 = sum of:
        0.028711477 = product of:
          0.14355738 = sum of:
            0.14355738 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.14355738 = score(doc=3396,freq=2.0), product of:
                0.26650316 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.027330918 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.2 = coord(1/5)
        0.028711477 = product of:
          0.14355738 = sum of:
            0.14355738 = weight(_text_:c3 in 3396) [ClassicSimilarity], result of:
              0.14355738 = score(doc=3396,freq=2.0), product of:
                0.26650316 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.027330918 = queryNorm
                0.5386705 = fieldWeight in 3396, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3396)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Footnote
    Vgl. unter: http://othes.univie.ac.at/3016/1/Parsian_%C3%9Cberlegungen_zur_Aufstellungssystematik_und_Reklassifikation_an_der_AFOR.pdf.
  11. Bender, B.: Digitale Mündigkeit? : Definition und Dimensionen: eine theoretische Fundierung zwischen Medienbildung und Medienkompetenz (2016) 0.01
    0.013125247 = product of:
      0.045938365 = sum of:
        0.022969183 = product of:
          0.11484591 = sum of:
            0.11484591 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.11484591 = score(doc=4089,freq=2.0), product of:
                0.26650316 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.027330918 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.2 = coord(1/5)
        0.022969183 = product of:
          0.11484591 = sum of:
            0.11484591 = weight(_text_:c3 in 4089) [ClassicSimilarity], result of:
              0.11484591 = score(doc=4089,freq=2.0), product of:
                0.26650316 = queryWeight, product of:
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.027330918 = queryNorm
                0.4309364 = fieldWeight in 4089, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  9.7509775 = idf(docFreq=6, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4089)
          0.2 = coord(1/5)
      0.2857143 = coord(2/7)
    
    Content
    Bachelorarbeit, angefertigt im Studiengang B.A. Bildungswissenschaft an der FernUniversität in Hagen - Fakultät Kultur- und Sozialwissenschaften - Institut für Bildungswissenschaft und Medienforschung Lehrgebiet Bildungstheorie und Medienpädagogik. Vgl.: https://lesen-schreiben-bilden.net/wp-content/uploads/2017/02/BA_BB_ohnePr%C3%A4si_public.pdf.
  12. Haas, M.: Methoden der künstlichen Intelligenz in betriebswirtschaftlichen Anwendungen (2006) 0.01
    0.011127228 = product of:
      0.07789059 = sum of:
        0.07789059 = weight(_text_:intelligenz in 4499) [ClassicSimilarity], result of:
          0.07789059 = score(doc=4499,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.501895 = fieldWeight in 4499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0625 = fieldNorm(doc=4499)
      0.14285715 = coord(1/7)
    
  13. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.008345421 = product of:
      0.058417946 = sum of:
        0.058417946 = weight(_text_:intelligenz in 558) [ClassicSimilarity], result of:
          0.058417946 = score(doc=558,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.37642127 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.046875 = fieldNorm(doc=558)
      0.14285715 = coord(1/7)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
  14. Boltzendahl, S.: Ontologien in digitalen Bibliotheken unter dem Schwerpunkt Inhaltserschliessung und Recherche (2004) 0.01
    0.007868139 = product of:
      0.055076968 = sum of:
        0.055076968 = weight(_text_:intelligenz in 1414) [ClassicSimilarity], result of:
          0.055076968 = score(doc=1414,freq=4.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.3548934 = fieldWeight in 1414, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=1414)
      0.14285715 = coord(1/7)
    
    Abstract
    Das Thema dieser Arbeit sind formale Ontologien in digltalen Bibliotheken. DIese Entwicklung der Künstlichen Intelligenz repräsentiert die Begrifflichkeit eInes Fachgebietes oder thematischen Bereiches sowohl auf konzeptueller wie auf terminologischer Ebene, die durch vielfältige Beziehungen zwischen den Termen und integrierten Schlussregeln "intelligentes" Suchen in Textdokumenten ermöglichen sollen. Ein Einsatz in digitalen Bibliotheken zur Bewältigung von Anforderungen des Information Retrieval und der Interoperabilität ist daher nahe liegend. Die vorliegende Arbeit betrachtet die Nutzung von Ontologien für Recherche und Inhaltserschließung in digitalen Bibliotheken und setzt sie in Beziehung zu den herkömmlichen dokumentarischen Hilfsmitteln Klassifikation und Thesaurus. Es zeigt sich, dass die Zielsetzungen bei der Entwicklung von formalen Ontologien nicht weit von den Anforderungen an moderne elektronische Thesauri entfernt sind.
    Die vorliegende Arbeit befasst sich mit Anwendungsmöglichkeiten von "formalen Ontologien" in digitalen Bibliotheken. Der Schwerpunkt liegt dabei auf der Inhaltserschließung und der Recherche, also dem Information Retrieval. Ontologien sind neuere Entwicklungen der künstlichen Intelligenz, die es sich zur Aufgabe gemacht haben, die Semantik elektronisch gespeicherter Daten zu beschreiben. Sie versprechen, damit angesichts einer steigenden Informationsflut" weltweiter Vemetzung und einem auch wirtschaftlich immer wichtiger werdenden Zugang zu und Austausch von Information und Wissen intelligente Lösungen zu liefern. Durch die Darstellung von gegenstandsbezogenem Wissen sollen mit Hilfe von Ontologien semantische Heterogenität behandelt und Integriert, intelligente Recherchemöglichkeiten auch für große Datenmengen eröffnet und damit Lösungen v.a. für das Wissensmanagement geboten werden. In dieser Arbeit soll der Frage nachgegangen werden, was unter Ontologien in diesem Sinne zu verstehen ist, wie sie in digitalen BIbliotheken als neuen Informationssystemen eingesetzt werden können und was sie im Verhältnis zu herkömmlichen Hilfsmitteln im Information Retrieval leisten. Dafür soll zunächst erläutert werden, was formale Ontologien sind und wo und zu welchen Zwecken sie eingesetzt werden können (Kapitel 2). Im darauf folgenden Kapitel sollen zunächst Anforderungen an das Information Retrieval in digitalen Bibliotheken skizziert werden und mögliche Einsatzbereiche von Ontologien aufgezeigt werden (Kapitel 3). Dieses Kapitel wird durch Beispiele von konkreten Projekten, die Ontologien in digitalen Bibliotheken einsetzen, ergänzt. Schließlich sollen in Kapitel 4 Ontologien in Beziehung gesetzt werden zu herkömmlichen dokumentarischen Hilfsmitteln der Inhaltserschließung und Recherche, v.a. dem Thesaurus. Bei dieser Darstellung kann es sich nur um einen allgemeinen Überblick über den Themenbereich handeln, eine genauere Darstellung würde den Rahmen dieser Arbeit sprengen. Auf einige Probleme und mögliche Untersuchungsbereiche" die sich für den Einsatz von Ontologien in digitalen Bibliotheken stellen, soll jedoch noch am Schluss dieser Arbeit (Kapitel 5) hingewiesen werden. Auf besondere Ansätze z.B. in der Thesaurusforschung (wie z.B. einem "semiotischen Thesaurus" (vgl. Schwarz/Umstätter) kann in diesem Rahmen nicht eingegangen werden.
  15. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.01
    0.0069545177 = product of:
      0.04868162 = sum of:
        0.04868162 = weight(_text_:intelligenz in 4283) [ClassicSimilarity], result of:
          0.04868162 = score(doc=4283,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.31368437 = fieldWeight in 4283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4283)
      0.14285715 = coord(1/7)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
  16. Zudnik, J.: Artifizielle Semantik : Wider das Chinesische Zimmer (2017) 0.01
    0.005563614 = product of:
      0.038945295 = sum of:
        0.038945295 = weight(_text_:intelligenz in 4426) [ClassicSimilarity], result of:
          0.038945295 = score(doc=4426,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.2509475 = fieldWeight in 4426, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.03125 = fieldNorm(doc=4426)
      0.14285715 = coord(1/7)
    
    Abstract
    "Talks at Google" hatte kürzlich einen Star zu Gast (Google 2016). Der gefeierte Philosoph referierte in gewohnt charmanter Art sein berühmtes Gedankenexperiment, welches er vor 35 Jahren ersonnen hatte. Aber es war keine reine Geschichtslektion, sondern er bestand darauf, daß die Implikationen nach wie vor Gültigkeit besaßen. Die Rede ist natürlich von John Searle und dem Chinesischen Zimmer. Searle eroberte damit ab 1980 die Welt der Philosophie des Geistes, indem er bewies, daß man Computer besprechen kann, ohne etwas von ihnen zu verstehen. In seinen Worten, man könne ohnehin die zugrunde liegenden Konzepte dieser damned things in 5 Minuten erfassen. Dagegen verblassten die scheuen Einwände des AI-Starapologeten Ray Kurzweil der im Publikum saß, die jüngste Akquisition in Googles Talentpool. Searle wirkte wie die reine Verkörperung seiner Thesen, daß Berechnung, Logik und harte Fakten angesichts der vollen Entfaltung polyvalenter Sprachspiele eines menschlichen Bewußtseins im sozialen Raum der Kultur keine Macht über uns besitzen. Doch obwohl große Uneinigkeit bezüglich der Gültigkeit des chinesischen Zimmers besteht, und die logische Struktur des Arguments schon vor Jahrzehnten widerlegt worden ist, u. a. von Copeland (1993), wird erstaunlicherweise noch immer damit gehandelt. Es hat sich von einem speziellen Werkzeug zur Widerlegung der Starken AI These, wonach künstliche Intelligenz mit einer symbolverarbeitenden Rechenmaschine geschaffen werden kann, zu einem Argument für all die Fälle entwickelt, in welchen sich Philosophen des Geistes mit unbequemen Fragen bezüglich der Berechenbarkeit des menschlichen Geistes auseinandersetzen hätten können. Es ist also mit den Jahrzehnten zu einer Immunisierungs- und Konservierungsstrategie für all jene geworden, die sich Zeit erkaufen wollten, sich mit der wirklichen Komplexität auseinander zu setzen. Denn die Definition von Sinn ist eben plastisch, vor allem wenn die Pointe der Searlschen Geschichte noch immer eine hohe Suggestionskraft besitzt, da ihre Konklusion, man könne nicht von einer computationalen Syntax zu einer Semantik kommen, noch immer unzureichend widerlegt ist.
  17. Stanz, G.: Medienarchive: Analyse einer unterschätzten Ressource : Archivierung, Dokumentation, und Informationsvermittlung in Medien bei besonderer Berücksichtigung von Pressearchiven (1994) 0.01
    0.005101397 = product of:
      0.03570978 = sum of:
        0.03570978 = product of:
          0.08927444 = sum of:
            0.044838898 = weight(_text_:29 in 9) [ClassicSimilarity], result of:
              0.044838898 = score(doc=9,freq=2.0), product of:
                0.09614162 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46638384 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
            0.044435546 = weight(_text_:22 in 9) [ClassicSimilarity], result of:
              0.044435546 = score(doc=9,freq=2.0), product of:
                0.09570822 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027330918 = queryNorm
                0.46428138 = fieldWeight in 9, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=9)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    22. 2.1997 19:50:29
  18. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.00
    0.0048681623 = product of:
      0.034077134 = sum of:
        0.034077134 = weight(_text_:intelligenz in 4495) [ClassicSimilarity], result of:
          0.034077134 = score(doc=4495,freq=2.0), product of:
            0.155193 = queryWeight, product of:
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.027330918 = queryNorm
            0.21957907 = fieldWeight in 4495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.678294 = idf(docFreq=410, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4495)
      0.14285715 = coord(1/7)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
  19. Thielemann, A.: Sacherschließung für die Kunstgeschichte : Möglichkeiten und Grenzen von DDC 700: The Arts (2007) 0.00
    0.0034009314 = product of:
      0.023806518 = sum of:
        0.023806518 = product of:
          0.059516296 = sum of:
            0.0298926 = weight(_text_:29 in 1409) [ClassicSimilarity], result of:
              0.0298926 = score(doc=1409,freq=2.0), product of:
                0.09614162 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.027330918 = queryNorm
                0.31092256 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
            0.029623698 = weight(_text_:22 in 1409) [ClassicSimilarity], result of:
              0.029623698 = score(doc=1409,freq=2.0), product of:
                0.09570822 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027330918 = queryNorm
                0.30952093 = fieldWeight in 1409, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1409)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Abstract
    Nach der Veröffentlichung einer deutschen Übersetzung der Dewey Decimal Classification 22 im Oktober 2005 und ihrer Nutzung zur Inhaltserschließung in der Deutschen Nationalbibliographie seit Januar 2006 stellt sich aus Sicht der deutschen kunsthistorischen Spezialbibliotheken die Frage nach einer möglichen Verwendung der DDC und ihrer generellen Eignung zur Inhalterschließung kunsthistorischer Publikationen. Diese Frage wird vor dem Hintergrund der bestehenden bibliothekarischen Strukturen für die Kunstgeschichte sowie mit Blick auf die inhaltlichen Besonderheiten, die Forschungsmethodik und die publizistischen Traditionen dieses Faches erörtert.
    Date
    14. 2.2008 19:56:29
  20. Köbler, J.; Niederklapfer, T.: Kreuzkonkordanzen zwischen RVK-BK-MSC-PACS der Fachbereiche Mathematik un Physik (2010) 0.00
    0.0030813524 = product of:
      0.021569466 = sum of:
        0.021569466 = product of:
          0.053923663 = sum of:
            0.03170589 = weight(_text_:29 in 4408) [ClassicSimilarity], result of:
              0.03170589 = score(doc=4408,freq=4.0), product of:
                0.09614162 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.027330918 = queryNorm
                0.3297832 = fieldWeight in 4408, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
            0.022217773 = weight(_text_:22 in 4408) [ClassicSimilarity], result of:
              0.022217773 = score(doc=4408,freq=2.0), product of:
                0.09570822 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.027330918 = queryNorm
                0.23214069 = fieldWeight in 4408, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4408)
          0.4 = coord(2/5)
      0.14285715 = coord(1/7)
    
    Date
    29. 3.2011 10:47:10
    29. 3.2011 10:57:42
    Pages
    22 S

Languages

  • d 62
  • e 9
  • f 1
  • hu 1
  • More… Less…

Types