Search (10 results, page 1 of 1)

  • × author_ss:"Petras, V."
  1. Petras, V.; Bank, M.: Vergleich der Suchmaschinen AltaVista und HotBot bezüglich Treffermengen und Aktualität (1998) 0.02
    0.016294017 = product of:
      0.040735044 = sum of:
        0.035703108 = weight(_text_:und in 2514) [ClassicSimilarity], result of:
          0.035703108 = score(doc=2514,freq=10.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.438048 = fieldWeight in 2514, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2514)
        0.0050319345 = product of:
          0.020127738 = sum of:
            0.020127738 = weight(_text_:m in 2514) [ClassicSimilarity], result of:
              0.020127738 = score(doc=2514,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.21994986 = fieldWeight in 2514, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2514)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Im April 1988 veröffentlichten Giles und Lawrence einen Artikel in Science über die Abdeckung des WWW durch die wichtigsten Suchmaschinen. Darin kamen sie zu dem Ergebnis, daß HotBot mit 34% mehr Webseiten abdeckt als AltaVista mit 28%. Dies deckt sich weder mit den Größenangaben der Suchmaschinen selbst noch mit den bisherigen Erfahrungen der Autoren. Ziel der vorliegenden Untersuchung ist es, die Treffermengen der beiden System in Bezug auf ausgewählte Suchfragen und ihr Verhalten bei zeitlicher einschränkung der Recherche zu vergleichen
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.8, S.453-458
  2. Petras, V.: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen : eine Fallstudie (2010) 0.01
    0.014664513 = product of:
      0.036661282 = sum of:
        0.0279421 = weight(_text_:und in 3730) [ClassicSimilarity], result of:
          0.0279421 = score(doc=3730,freq=8.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.34282678 = fieldWeight in 3730, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3730)
        0.008719182 = product of:
          0.034876727 = sum of:
            0.034876727 = weight(_text_:22 in 3730) [ClassicSimilarity], result of:
              0.034876727 = score(doc=3730,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.2708308 = fieldWeight in 3730, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3730)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das BMBF hat bis Ende 2007 ein Projekt gefördert, dessen Aufgabe es war, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) zu organisieren. In drei Jahren wurden 64 Crosskonkordanzen mit mehr als 500.000 Relationen zwischen kontrollierten Vokabularen aus den Sozialwissenschaften und anderen Fachgebieten umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Anwendungsmöglichkeiten der Heterogenitätsbehandlung durch Crosskonkordanzen und die Ergebnisse der umfangreichen Analysen.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  3. Stiller, J.; Gäde, M.; Petras, V.: Multilingual access to digital libraries : the Europeana use case (2013) 0.01
    0.014257264 = product of:
      0.03564316 = sum of:
        0.03124022 = weight(_text_:und in 902) [ClassicSimilarity], result of:
          0.03124022 = score(doc=902,freq=10.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.38329202 = fieldWeight in 902, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=902)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 902) [ClassicSimilarity], result of:
              0.017611772 = score(doc=902,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=902)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Der Artikel fasst Komponenten für einen mehrsprachigen Zugang in digitalen Bibliotheken zusammen. Dabei wird der Fokus auf Bibliotheken für das digitale Kulturerbe gelegt. Eine Analyse aktueller (existierender) Informationssysteme im sogenannten GLAM-Bereich (Galerien, Bibliotheken, Archive, Museen) beschreibt angewandte Lösungen für die Recherche (Suchen und Blättern) von und die Interaktion mit mehrsprachigen Inhalten. Europeana, die europäische digitale Bibliothek für Kulturerbe, wird als Fallbeispiel hervorgehoben und es werden beispielhaft Interaktionsszenarios für die mehrsprachige Recherche vorgestellt. Die Herausforderungen in der Implementierung von Komponenten für den mehrsprachigen Informationszugang sowie Empfehlungen für den verbesserten Einsatz werden vorgestellt und diskutiert.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.86-95
  4. Menzel, S.; Schnaitter, H.; Zinck, J.; Petras, V.; Neudecker, C.; Labusch, K.; Leitner, E.; Rehm, G.: Named Entity Linking mit Wikidata und GND : das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten (2021) 0.01
    0.013880938 = product of:
      0.034702346 = sum of:
        0.031557385 = weight(_text_:und in 373) [ClassicSimilarity], result of:
          0.031557385 = score(doc=373,freq=20.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3871834 = fieldWeight in 373, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=373)
        0.0031449592 = product of:
          0.012579837 = sum of:
            0.012579837 = weight(_text_:m in 373) [ClassicSimilarity], result of:
              0.012579837 = score(doc=373,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.13746867 = fieldWeight in 373, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=373)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Named Entities (benannte Entitäten) - wie Personen, Organisationen, Orte, Ereignisse und Werke - sind wichtige inhaltstragende Komponenten eines Dokuments und sind daher maßgeblich für eine gute inhaltliche Erschließung. Die Erkennung von Named Entities, deren Auszeichnung (Annotation) und Verfügbarmachung für die Suche sind wichtige Instrumente, um Anwendungen wie z. B. die inhaltliche oder semantische Suche in Texten, dokumentübergreifende Kontextualisierung oder das automatische Textzusammenfassen zu verbessern. Inhaltlich präzise und nachhaltig erschlossen werden die erkannten Named Entities eines Dokuments allerdings erst, wenn sie mit einer oder mehreren Quellen verknüpft werden (Grundprinzip von Linked Data, Berners-Lee 2006), die die Entität eindeutig identifizieren und gegenüber gleichlautenden Entitäten disambiguieren (vergleiche z. B. Berlin als Hauptstadt Deutschlands mit dem Komponisten Irving Berlin). Dazu wird die im Dokument erkannte Entität mit dem Entitätseintrag einer Normdatei oder einer anderen zuvor festgelegten Wissensbasis (z. B. Gazetteer für geografische Entitäten) verknüpft, gewöhnlich über den persistenten Identifikator der jeweiligen Wissensbasis oder Normdatei. Durch die Verknüpfung mit einer Normdatei erfolgt nicht nur die Disambiguierung und Identifikation der Entität, sondern es wird dadurch auch Interoperabilität zu anderen Systemen hergestellt, in denen die gleiche Normdatei benutzt wird, z. B. die Suche nach der Hauptstadt Berlin in verschiedenen Datenbanken bzw. Portalen. Die Entitätenverknüpfung (Named Entity Linking, NEL) hat zudem den Vorteil, dass die Normdateien oftmals Relationen zwischen Entitäten enthalten, sodass Dokumente, in denen Named Entities erkannt wurden, zusätzlich auch im Kontext einer größeren Netzwerkstruktur von Entitäten verortet und suchbar gemacht werden können
    Series
    Bibliotheks- und Informationspraxis; 70
    Source
    Qualität in der Inhaltserschließung. Hrsg.: M. Franke-Maier, u.a
  5. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.01
    0.007573772 = product of:
      0.03786886 = sum of:
        0.03786886 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.03786886 = score(doc=2782,freq=20.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
      0.2 = coord(1/5)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Mayr, P.; Petras, V.: Crosskonkordanzen : Terminologie Mapping und deren Effektivität für das Information Retrieval 0.01
    0.006248044 = product of:
      0.03124022 = sum of:
        0.03124022 = weight(_text_:und in 1996) [ClassicSimilarity], result of:
          0.03124022 = score(doc=1996,freq=10.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.38329202 = fieldWeight in 1996, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1996)
      0.2 = coord(1/5)
    
    Abstract
    Das Bundesministerium für Bildung und Forschung hat eine große Initiative zur Erstellung von Crosskonkordanzen gefördert, die 2007 zu Ende geführt wurde. Die Aufgabe dieser Initiative war die Organisation, die Erstellung und das Management von Crosskonkordanzen zwischen kontrollierten Vokabularen (Thesauri, Klassifikationen, Deskriptorenlisten) in den Sozialwissenschaften und anderen Fachgebieten. 64 Crosskonkordanzen mit mehr als 500.000 Relationen wurden umgesetzt. In der Schlussphase des Projekts wurde eine umfangreiche Evaluation durchgeführt, die die Effektivität der Crosskonkordanzen in unterschiedlichen Informationssystemen testen sollte. Der Artikel berichtet über die Crosskonkordanz-Arbeit und die Evaluationsergebnisse.
  7. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.00
    0.004790074 = product of:
      0.02395037 = sum of:
        0.02395037 = weight(_text_:und in 808) [ClassicSimilarity], result of:
          0.02395037 = score(doc=808,freq=8.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.29385152 = fieldWeight in 808, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=808)
      0.2 = coord(1/5)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  8. Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010) 0.00
    0.004516125 = product of:
      0.022580625 = sum of:
        0.022580625 = weight(_text_:und in 4663) [ClassicSimilarity], result of:
          0.022580625 = score(doc=4663,freq=4.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.27704588 = fieldWeight in 4663, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4663)
      0.2 = coord(1/5)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  9. Mayr, P.; Petras, V.: Building a Terminology Network for Search : the KoMoHe project (2008) 0.00
    0.0017438363 = product of:
      0.008719182 = sum of:
        0.008719182 = product of:
          0.034876727 = sum of:
            0.034876727 = weight(_text_:22 in 2618) [ClassicSimilarity], result of:
              0.034876727 = score(doc=2618,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.2708308 = fieldWeight in 2618, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2618)
          0.25 = coord(1/4)
      0.2 = coord(1/5)
    
    Source
    Metadata for semantic and social applications : proceedings of the International Conference on Dublin Core and Metadata Applications, Berlin, 22 - 26 September 2008, DC 2008: Berlin, Germany / ed. by Jane Greenberg and Wolfgang Klas
  10. Stiller, J.; Olensky, M.; Petras, V.: ¬A framework for the evaluation of automatic metadata enrichments (2014) 0.00
    8.805886E-4 = product of:
      0.004402943 = sum of:
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 1587) [ClassicSimilarity], result of:
              0.017611772 = score(doc=1587,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 1587, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1587)
          0.25 = coord(1/4)
      0.2 = coord(1/5)