Search (11 results, page 1 of 1)

  • × language_ss:"e"
  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.11
    0.11121634 = product of:
      0.41706124 = sum of:
        0.13517669 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13517669 = score(doc=563,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13517669 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13517669 = score(doc=563,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.13517669 = weight(_text_:2f in 563) [ClassicSimilarity], result of:
          0.13517669 = score(doc=563,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.56201804 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.011531183 = product of:
          0.023062365 = sum of:
            0.023062365 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.023062365 = score(doc=563,freq=2.0), product of:
                0.0993465 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028369885 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.26666668 = coord(4/15)
    
    Content
    A Thesis presented to The University of Guelph In partial fulfilment of requirements for the degree of Master of Science in Computer Science. Vgl. Unter: http://www.inf.ufrgs.br%2F~ceramisch%2Fdownload_files%2Fpublications%2F2009%2Fp01.pdf.
    Date
    10. 1.2013 19:22:47
  2. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.11
    0.10996713 = product of:
      0.4123767 = sum of:
        0.030039266 = product of:
          0.0901178 = sum of:
            0.0901178 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.0901178 = score(doc=5820,freq=2.0), product of:
                0.2405202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028369885 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.33333334 = coord(1/3)
        0.1274458 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.1274458 = score(doc=5820,freq=4.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.1274458 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.1274458 = score(doc=5820,freq=4.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
        0.1274458 = weight(_text_:2f in 5820) [ClassicSimilarity], result of:
          0.1274458 = score(doc=5820,freq=4.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.5298757 = fieldWeight in 5820, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.26666668 = coord(4/15)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
  3. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.10
    0.100130886 = product of:
      0.3754908 = sum of:
        0.037549082 = product of:
          0.11264724 = sum of:
            0.11264724 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.11264724 = score(doc=4997,freq=2.0), product of:
                0.2405202 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.028369885 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
        0.11264724 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11264724 = score(doc=4997,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11264724 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11264724 = score(doc=4997,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.11264724 = weight(_text_:2f in 4997) [ClassicSimilarity], result of:
          0.11264724 = score(doc=4997,freq=2.0), product of:
            0.2405202 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.028369885 = queryNorm
            0.46834838 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.26666668 = coord(4/15)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
  4. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.01
    0.009676431 = product of:
      0.048382156 = sum of:
        0.02177514 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.02177514 = score(doc=595,freq=16.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.34630734 = fieldWeight in 595, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=595)
        0.016997695 = weight(_text_:des in 595) [ClassicSimilarity], result of:
          0.016997695 = score(doc=595,freq=4.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.21635216 = fieldWeight in 595, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=595)
        0.009609319 = product of:
          0.019218639 = sum of:
            0.019218639 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
              0.019218639 = score(doc=595,freq=2.0), product of:
                0.0993465 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028369885 = queryNorm
                0.19345059 = fieldWeight in 595, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=595)
          0.5 = coord(1/2)
      0.2 = coord(3/15)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
  5. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.01
    0.007876243 = product of:
      0.059071824 = sum of:
        0.015242599 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.015242599 = score(doc=5496,freq=4.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.24241515 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
        0.043829225 = product of:
          0.08765845 = sum of:
            0.08765845 = weight(_text_:kommunikationswissenschaften in 5496) [ClassicSimilarity], result of:
              0.08765845 = score(doc=5496,freq=4.0), product of:
                0.15078795 = queryWeight, product of:
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.028369885 = queryNorm
                0.5813359 = fieldWeight in 5496, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.315071 = idf(docFreq=590, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5496)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Footnote
    Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
    Imprint
    Köln : Technische Hochschule / Fakultät für Informations- und Kommunikationswissenschaften
  6. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013) 0.01
    0.0052580964 = product of:
      0.039435722 = sum of:
        0.01539735 = weight(_text_:und in 1810) [ClassicSimilarity], result of:
          0.01539735 = score(doc=1810,freq=2.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.24487628 = fieldWeight in 1810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1810)
        0.02403837 = weight(_text_:des in 1810) [ClassicSimilarity], result of:
          0.02403837 = score(doc=1810,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.30596817 = fieldWeight in 1810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=1810)
      0.13333334 = coord(2/15)
    
    Content
    Trägerin des VFI-Dissertationspreises 2014: "Überzeugende gründliche linguistische und quantitative Analyse eines im Information Retrieval bisher wenig beachteten Textelementes anhand eines eigens erstellten grossen Hypertextkorpus, einschliesslich der Evaluation selbsterstellter Auflösungsregeln für die Nutzung in künftigen IR-Systemen.".
  7. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.01
    0.005182075 = product of:
      0.03886556 = sum of:
        0.024442535 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.024442535 = score(doc=4343,freq=14.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.38872904 = fieldWeight in 4343, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.014423022 = weight(_text_:des in 4343) [ClassicSimilarity], result of:
          0.014423022 = score(doc=4343,freq=2.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.18358089 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
      0.13333334 = coord(2/15)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  8. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.00
    0.0048174066 = product of:
      0.036130548 = sum of:
        0.019476278 = weight(_text_:und in 3081) [ClassicSimilarity], result of:
          0.019476278 = score(doc=3081,freq=20.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.3097467 = fieldWeight in 3081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.016654272 = weight(_text_:des in 3081) [ClassicSimilarity], result of:
          0.016654272 = score(doc=3081,freq=6.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.21198097 = fieldWeight in 3081, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
      0.13333334 = coord(2/15)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Knitel, M.: ¬The application of linked data principles to library data : opportunities and challenges (2012) 0.00
    0.0040442925 = product of:
      0.030332193 = sum of:
        0.013334497 = weight(_text_:und in 599) [ClassicSimilarity], result of:
          0.013334497 = score(doc=599,freq=6.0), product of:
            0.06287808 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.028369885 = queryNorm
            0.21206908 = fieldWeight in 599, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
        0.016997695 = weight(_text_:des in 599) [ClassicSimilarity], result of:
          0.016997695 = score(doc=599,freq=4.0), product of:
            0.07856494 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.028369885 = queryNorm
            0.21635216 = fieldWeight in 599, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
      0.13333334 = coord(2/15)
    
    Abstract
    Linked Data hat sich im Laufe der letzten Jahre zu einem vorherrschenden Thema der Bibliothekswissenschaft entwickelt. Als ein Standard für Erfassung und Austausch von Daten, bestehen zahlreiche Berührungspunkte mit traditionellen bibliothekarischen Techniken. Diese Arbeit stellt in einem ersten Teil die grundlegenden Technologien dieses neuen Paradigmas vor, um sodann deren Anwendung auf bibliothekarische Daten zu untersuchen. Den zentralen Prinzipien der Linked Data Initiative folgend, werden dabei die Adressierung von Entitäten durch URIs, die Anwendung des RDF Datenmodells und die Verknüpfung von heterogenen Datenbeständen näher beleuchtet. Den dabei zu Tage tretenden Herausforderungen der Sicherstellung von qualitativ hochwertiger Information, der permanenten Adressierung von Inhalten im World Wide Web sowie Problemen der Interoperabilität von Metadatenstandards wird dabei besondere Aufmerksamkeit geschenkt. Der letzte Teil der Arbeit skizziert ein Programm, welches eine mögliche Erweiterung der Suchmaschine des österreichischen Bibliothekenverbundes darstellt. Dessen prototypische Umsetzung erlaubt eine realistische Einschätzung der derzeitigen Möglichkeiten von Linked Data und unterstreicht viele der vorher theoretisch erarbeiteten Themengebiete. Es zeigt sich, dass für den voll produktiven Einsatz von Linked Data noch viele Hürden zu überwinden sind. Insbesondere befinden sich viele Projekte derzeit noch in einem frühen Reifegrad. Andererseits sind die Möglichkeiten, die aus einem konsequenten Einsatz von RDF resultieren würden, vielversprechend. RDF qualifiziert sich somit als Kandidat für den Ersatz von auslaufenden bibliographischen Datenformaten wie MAB oder MARC.
  10. Kiren, T.: ¬A clustering based indexing technique of modularized ontologies for information retrieval (2017) 0.00
    5.1249703E-4 = product of:
      0.0076874555 = sum of:
        0.0076874555 = product of:
          0.015374911 = sum of:
            0.015374911 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.015374911 = score(doc=4399,freq=2.0), product of:
                0.0993465 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028369885 = queryNorm
                0.15476047 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Date
    20. 1.2015 18:30:22
  11. Ziemba, L.: Information retrieval with concept discovery in digital collections for agriculture and natural resources (2011) 0.00
    3.6425426E-4 = product of:
      0.0054638134 = sum of:
        0.0054638134 = product of:
          0.010927627 = sum of:
            0.010927627 = weight(_text_:internet in 4728) [ClassicSimilarity], result of:
              0.010927627 = score(doc=4728,freq=2.0), product of:
                0.0837547 = queryWeight, product of:
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.028369885 = queryNorm
                0.1304718 = fieldWeight in 4728, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.9522398 = idf(docFreq=6276, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4728)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    The amount and complexity of information available in a digital form is already huge and new information is being produced every day. Retrieving information relevant to address a particular need becomes a significant issue. This work utilizes knowledge organization systems (KOS), such as thesauri and ontologies and applies information extraction (IE) and computational linguistics (CL) techniques to organize, manage and retrieve information stored in digital collections in the agricultural domain. Two real world applications of the approach have been developed and are available and actively used by the public. An ontology is used to manage the Water Conservation Digital Library holding a dynamic collection of various types of digital resources in the domain of urban water conservation in Florida, USA. The ontology based back-end powers a fully operational web interface, available at http://library.conservefloridawater.org. The system has demonstrated numerous benefits of the ontology application, including accurate retrieval of resources, information sharing and reuse, and has proved to effectively facilitate information management. The major difficulty encountered with the approach is that large and dynamic number of concepts makes it difficult to keep the ontology consistent and to accurately catalog resources manually. To address the aforementioned issues, a combination of IE and CL techniques, such as Vector Space Model and probabilistic parsing, with the use of Agricultural Thesaurus were adapted to automatically extract concepts important for each of the texts in the Best Management Practices (BMP) Publication Library--a collection of documents in the domain of agricultural BMPs in Florida available at http://lyra.ifas.ufl.edu/LIB. A new approach of domain-specific concept discovery with the use of Internet search engine was developed. Initial evaluation of the results indicates significant improvement in precision of information extraction. The approach presented in this work focuses on problems unique to agriculture and natural resources domain, such as domain specific concepts and vocabularies, but should be applicable to any collection of texts in digital format. It may be of potential interest for anyone who needs to effectively manage a collection of digital resources.