Search (21 results, page 1 of 2)

  • × language_ss:"e"
  • × type_ss:"x"
  • × year_i:[2010 TO 2020}
  1. Geisriegler, E.: Enriching electronic texts with semantic metadata : a use case for the historical Newspaper Collection ANNO (Austrian Newspapers Online) of the Austrian National Libraryhek (2012) 0.04
    0.03751833 = product of:
      0.05627749 = sum of:
        0.007372791 = weight(_text_:e in 595) [ClassicSimilarity], result of:
          0.007372791 = score(doc=595,freq=4.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.112294525 = fieldWeight in 595, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=595)
        0.048904702 = sum of:
          0.017961174 = weight(_text_:von in 595) [ClassicSimilarity], result of:
            0.017961174 = score(doc=595,freq=2.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.14738473 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
          0.030943526 = weight(_text_:22 in 595) [ClassicSimilarity], result of:
            0.030943526 = score(doc=595,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.19345059 = fieldWeight in 595, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=595)
      0.6666667 = coord(2/3)
    
    Abstract
    Die vorliegende Master Thesis setzt sich mit der Frage nach Möglichkeiten der Anreicherung historischer Zeitungen mit semantischen Metadaten auseinander. Sie möchte außerdem analysieren, welcher Nutzen für vor allem geisteswissenschaftlich Forschende, durch die Anreicherung mit zusätzlichen Informationsquellen entsteht. Nach der Darstellung der Entwicklung der interdisziplinären 'Digital Humanities', wurde für die digitale Sammlung historischer Zeitungen (ANNO AustriaN Newspapers Online) der Österreichischen Nationalbibliothek ein Use Case entwickelt, bei dem 'Named Entities' (Personen, Orte, Organisationen und Daten) in ausgewählten Zeitungsausgaben manuell annotiert wurden. Methodisch wurde das Kodieren mit 'TEI', einem Dokumentenformat zur Kodierung und zum Austausch von Texten durchgeführt. Zusätzlich wurden zu allen annotierten 'Named Entities' Einträge in externen Datenbanken wie Wikipedia, Wikipedia Personensuche, der ehemaligen Personennamen- und Schlagwortnormdatei (jetzt Gemeinsame Normdatei GND), VIAF und dem Bildarchiv Austria gesucht und gegebenenfalls verlinkt. Eine Beschreibung der Ergebnisse des manuellen Annotierens der Zeitungsseiten schließt diesen Teil der Arbeit ab. In einem weiteren Abschnitt werden die Ergebnisse des manuellen Annotierens mit jenen Ergebnissen, die automatisch mit dem German NER (Named Entity Recognition) generiert wurden, verglichen und in ihrer Genauigkeit analysiert. Abschließend präsentiert die Arbeit einige Best Practice-Beispiele kodierter und angereicherter Zeitungsseiten, um den zusätzlichen Nutzen durch die Auszeichnung der 'Named Entities' und durch die Verlinkung mit externen Informationsquellen für die BenützerInnen darzustellen.
    Date
    3. 2.2013 18:00:22
    Language
    e
  2. Farazi, M.: Faceted lightweight ontologies : a formalization and some experiments (2010) 0.03
    0.03370406 = product of:
      0.05055609 = sum of:
        0.04534274 = product of:
          0.18137096 = sum of:
            0.18137096 = weight(_text_:3a in 4997) [ClassicSimilarity], result of:
              0.18137096 = score(doc=4997,freq=2.0), product of:
                0.3872565 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045677755 = queryNorm
                0.46834838 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.25 = coord(1/4)
        0.0052133505 = weight(_text_:e in 4997) [ClassicSimilarity], result of:
          0.0052133505 = score(doc=4997,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.07940422 = fieldWeight in 4997, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
      0.6666667 = coord(2/3)
    
    Content
    PhD Dissertation at International Doctorate School in Information and Communication Technology. Vgl.: https%3A%2F%2Fcore.ac.uk%2Fdownload%2Fpdf%2F150083013.pdf&usg=AOvVaw2n-qisNagpyT0lli_6QbAQ.
    Language
    e
  3. Xiong, C.: Knowledge based text representations for information retrieval (2016) 0.03
    0.026963249 = product of:
      0.040444873 = sum of:
        0.03627419 = product of:
          0.14509676 = sum of:
            0.14509676 = weight(_text_:3a in 5820) [ClassicSimilarity], result of:
              0.14509676 = score(doc=5820,freq=2.0), product of:
                0.3872565 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3746787 = fieldWeight in 5820, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5820)
          0.25 = coord(1/4)
        0.0041706804 = weight(_text_:e in 5820) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=5820,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 5820, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=5820)
      0.6666667 = coord(2/3)
    
    Content
    Submitted in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Language and Information Technologies. Vgl.: https%3A%2F%2Fwww.cs.cmu.edu%2F~cx%2Fpapers%2Fknowledge_based_text_representation.pdf&usg=AOvVaw0SaTSvhWLTh__Uz_HtOtl3.
    Language
    e
  4. Knitel, M.: ¬The application of linked data principles to library data : opportunities and challenges (2012) 0.02
    0.02240831 = product of:
      0.033612464 = sum of:
        0.0052133505 = weight(_text_:e in 599) [ClassicSimilarity], result of:
          0.0052133505 = score(doc=599,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.07940422 = fieldWeight in 599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
        0.028399112 = product of:
          0.056798223 = sum of:
            0.056798223 = weight(_text_:von in 599) [ClassicSimilarity], result of:
              0.056798223 = score(doc=599,freq=20.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.4660715 = fieldWeight in 599, product of:
                  4.472136 = tf(freq=20.0), with freq of:
                    20.0 = termFreq=20.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=599)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Linked Data hat sich im Laufe der letzten Jahre zu einem vorherrschenden Thema der Bibliothekswissenschaft entwickelt. Als ein Standard für Erfassung und Austausch von Daten, bestehen zahlreiche Berührungspunkte mit traditionellen bibliothekarischen Techniken. Diese Arbeit stellt in einem ersten Teil die grundlegenden Technologien dieses neuen Paradigmas vor, um sodann deren Anwendung auf bibliothekarische Daten zu untersuchen. Den zentralen Prinzipien der Linked Data Initiative folgend, werden dabei die Adressierung von Entitäten durch URIs, die Anwendung des RDF Datenmodells und die Verknüpfung von heterogenen Datenbeständen näher beleuchtet. Den dabei zu Tage tretenden Herausforderungen der Sicherstellung von qualitativ hochwertiger Information, der permanenten Adressierung von Inhalten im World Wide Web sowie Problemen der Interoperabilität von Metadatenstandards wird dabei besondere Aufmerksamkeit geschenkt. Der letzte Teil der Arbeit skizziert ein Programm, welches eine mögliche Erweiterung der Suchmaschine des österreichischen Bibliothekenverbundes darstellt. Dessen prototypische Umsetzung erlaubt eine realistische Einschätzung der derzeitigen Möglichkeiten von Linked Data und unterstreicht viele der vorher theoretisch erarbeiteten Themengebiete. Es zeigt sich, dass für den voll produktiven Einsatz von Linked Data noch viele Hürden zu überwinden sind. Insbesondere befinden sich viele Projekte derzeit noch in einem frühen Reifegrad. Andererseits sind die Möglichkeiten, die aus einem konsequenten Einsatz von RDF resultieren würden, vielversprechend. RDF qualifiziert sich somit als Kandidat für den Ersatz von auslaufenden bibliographischen Datenformaten wie MAB oder MARC.
    Language
    e
  5. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.02
    0.018539619 = product of:
      0.027809428 = sum of:
        0.00625602 = weight(_text_:e in 4343) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4343,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.021553408 = product of:
          0.043106817 = sum of:
            0.043106817 = weight(_text_:von in 4343) [ClassicSimilarity], result of:
              0.043106817 = score(doc=4343,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.35372335 = fieldWeight in 4343, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4343)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Language
    e
  6. Huo, W.: Automatic multi-word term extraction and its application to Web-page summarization (2012) 0.02
    0.01654809 = product of:
      0.024822135 = sum of:
        0.00625602 = weight(_text_:e in 563) [ClassicSimilarity], result of:
          0.00625602 = score(doc=563,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 563, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=563)
        0.018566115 = product of:
          0.03713223 = sum of:
            0.03713223 = weight(_text_:22 in 563) [ClassicSimilarity], result of:
              0.03713223 = score(doc=563,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.23214069 = fieldWeight in 563, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=563)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    10. 1.2013 19:22:47
    Language
    e
  7. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.02
    0.015452668 = product of:
      0.023179002 = sum of:
        0.0041706804 = weight(_text_:e in 3081) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=3081,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 3081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=3081)
        0.019008322 = product of:
          0.038016643 = sum of:
            0.038016643 = weight(_text_:von in 3081) [ClassicSimilarity], result of:
              0.038016643 = score(doc=3081,freq=14.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3119547 = fieldWeight in 3081, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3081)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Language
    e
  8. Kiren, T.: ¬A clustering based indexing technique of modularized ontologies for information retrieval (2017) 0.01
    0.01103206 = product of:
      0.01654809 = sum of:
        0.0041706804 = weight(_text_:e in 4399) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=4399,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 4399, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4399)
        0.01237741 = product of:
          0.02475482 = sum of:
            0.02475482 = weight(_text_:22 in 4399) [ClassicSimilarity], result of:
              0.02475482 = score(doc=4399,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.15476047 = fieldWeight in 4399, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4399)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    20. 1.2015 18:30:22
    Language
    e
  9. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2015) 0.00
    0.003475567 = product of:
      0.010426701 = sum of:
        0.010426701 = weight(_text_:e in 1172) [ClassicSimilarity], result of:
          0.010426701 = score(doc=1172,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 1172, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1172)
      0.33333334 = coord(1/3)
    
    Language
    e
  10. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013) 0.00
    0.003475567 = product of:
      0.010426701 = sum of:
        0.010426701 = weight(_text_:e in 1810) [ClassicSimilarity], result of:
          0.010426701 = score(doc=1810,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 1810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1810)
      0.33333334 = coord(1/3)
    
    Language
    e
  11. Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018) 0.00
    0.0034406357 = product of:
      0.010321907 = sum of:
        0.010321907 = weight(_text_:e in 5496) [ClassicSimilarity], result of:
          0.010321907 = score(doc=5496,freq=4.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15721233 = fieldWeight in 5496, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5496)
      0.33333334 = coord(1/3)
    
    Language
    e
  12. Líska, M.: Evaluation of mathematics retrieval (2013) 0.00
    0.0024328968 = product of:
      0.0072986903 = sum of:
        0.0072986903 = weight(_text_:e in 1653) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=1653,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 1653, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1653)
      0.33333334 = coord(1/3)
    
    Language
    e
  13. Smith, D.A.: Exploratory and faceted browsing over heterogeneous and cross-domain data sources. (2011) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 4839) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4839,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4839, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4839)
      0.33333334 = coord(1/3)
    
    Language
    e
  14. Thornton, K: Powerful structure : inspecting infrastructures of information organization in Wikimedia Foundation projects (2016) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 3288) [ClassicSimilarity], result of:
          0.00625602 = score(doc=3288,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 3288, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=3288)
      0.33333334 = coord(1/3)
    
    Language
    e
  15. Kara, S.: ¬An ontology-based retrieval system using semantic indexing (2012) 0.00
    0.0020853402 = product of:
      0.00625602 = sum of:
        0.00625602 = weight(_text_:e in 3829) [ClassicSimilarity], result of:
          0.00625602 = score(doc=3829,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 3829, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=3829)
      0.33333334 = coord(1/3)
    
    Language
    e
  16. Ziemba, L.: Information retrieval with concept discovery in digital collections for agriculture and natural resources (2011) 0.00
    0.0013902269 = product of:
      0.0041706804 = sum of:
        0.0041706804 = weight(_text_:e in 4728) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=4728,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 4728, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=4728)
      0.33333334 = coord(1/3)
    
    Language
    e
  17. Castellanos Ardila, J.P.: Investigation of an OSLC-domain targeting ISO 26262 : focus on the left side of the software V-model (2016) 0.00
    0.0013902269 = product of:
      0.0041706804 = sum of:
        0.0041706804 = weight(_text_:e in 5819) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=5819,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 5819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=5819)
      0.33333334 = coord(1/3)
    
    Language
    e
  18. Sebastian, Y.: Literature-based discovery by learning heterogeneous bibliographic information networks (2017) 0.00
    0.0013902269 = product of:
      0.0041706804 = sum of:
        0.0041706804 = weight(_text_:e in 535) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=535,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 535, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=535)
      0.33333334 = coord(1/3)
    
    Language
    e
  19. Onofri, A.: Concepts in context (2013) 0.00
    0.0012164484 = product of:
      0.0036493451 = sum of:
        0.0036493451 = weight(_text_:e in 1077) [ClassicSimilarity], result of:
          0.0036493451 = score(doc=1077,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.05558295 = fieldWeight in 1077, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1077)
      0.33333334 = coord(1/3)
    
    Language
    e
  20. Nagy T., I.: Detecting multiword expressions and named entities in natural language texts (2014) 0.00
    0.0012164484 = product of:
      0.0036493451 = sum of:
        0.0036493451 = weight(_text_:e in 1536) [ClassicSimilarity], result of:
          0.0036493451 = score(doc=1536,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.05558295 = fieldWeight in 1536, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1536)
      0.33333334 = coord(1/3)
    
    Language
    e