Search (129 results, page 1 of 7)

  • × theme_ss:"Multilinguale Probleme"
  • × type_ss:"a"
  1. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.05
    0.047306977 = product of:
      0.18922791 = sum of:
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.025688507 = weight(_text_:der in 4793) [ClassicSimilarity], result of:
          0.025688507 = score(doc=4793,freq=36.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5235391 = fieldWeight in 4793, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.06344847 = weight(_text_:methodik in 4793) [ClassicSimilarity], result of:
          0.06344847 = score(doc=4793,freq=2.0), product of:
            0.15883602 = queryWeight, product of:
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.021966046 = queryNorm
            0.39945894 = fieldWeight in 4793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.230979 = idf(docFreq=86, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.014601111 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.014601111 = score(doc=4793,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.00744024 = product of:
          0.01488048 = sum of:
            0.01488048 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.01488048 = score(doc=4793,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.5 = coord(1/2)
      0.25 = coord(6/24)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Series
    Fortschritte in der Wissensorganisation; Bd.11
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  2. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.02
    0.022720445 = product of:
      0.10905814 = sum of:
        0.022619944 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5981,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.015793033 = weight(_text_:des in 5981) [ClassicSimilarity], result of:
          0.015793033 = score(doc=5981,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.25962257 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.037749823 = weight(_text_:fragen in 5981) [ClassicSimilarity], result of:
          0.037749823 = score(doc=5981,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.33752787 = fieldWeight in 5981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.010275402 = weight(_text_:der in 5981) [ClassicSimilarity], result of:
          0.010275402 = score(doc=5981,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.20941564 = fieldWeight in 5981, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
        0.022619944 = weight(_text_:und in 5981) [ClassicSimilarity], result of:
          0.022619944 = score(doc=5981,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 5981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5981)
      0.20833333 = coord(5/24)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  3. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2005) 0.02
    0.019206062 = product of:
      0.0921891 = sum of:
        0.018188007 = weight(_text_:und in 2183) [ClassicSimilarity], result of:
          0.018188007 = score(doc=2183,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3735868 = fieldWeight in 2183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.013028587 = weight(_text_:des in 2183) [ClassicSimilarity], result of:
          0.013028587 = score(doc=2183,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 2183, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.02202073 = weight(_text_:fragen in 2183) [ClassicSimilarity], result of:
          0.02202073 = score(doc=2183,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.19689126 = fieldWeight in 2183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.020763772 = weight(_text_:der in 2183) [ClassicSimilarity], result of:
          0.020763772 = score(doc=2183,freq=48.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 2183, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.018188007 = weight(_text_:und in 2183) [ClassicSimilarity], result of:
          0.018188007 = score(doc=2183,freq=38.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3735868 = fieldWeight in 2183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
      0.20833333 = coord(5/24)
    
    Content
    "Unsere Sitzung fand diesmal am 13. 9. 2005 in Bozen im Rahmen der ODOK statt. Es waren daher auch viele interessierte Südtiroler und italienische Sacherschließungskollegen/-innen zu Gast. Eine der beiden Konferenzsprachen war Englisch, und so konnten wir Mehrsprachigkeit, das Thema unserer Sitzung und der beiden Gastvorträge, gleich selbst praktizieren. Patrice LANDRY, der Leiter der Sacherschließung an derSLB in Bern, der seit kurzem den Vorsitz der IFLA-Sektion "Classification and Indexing" und der Arbeitsgruppe "Guidelines for subject access for national bibliographic agencies" übernommen hatte, referierte über den jüngsten Stand des Projekts MACS (Multilingual Access to Subjects) und ließ uns am Nachmittag in seinem Workshop hinter die Kulissen der bereits mit echten Titeldaten operierenden Suchoberfläche blicken. Er zeigte die verschiedenen Recherche- und Editier-Funktionen im Management Linking System und brachte Beispiele für die kooperative Bearbeitung an einigen Datensätzen der bisher bereits miteinander verzahnten Normdateien SWD, LCSH und RAMEAU. Schließlich eröffnete er Ausblicke auf die künftige Einbindung weiterer Sprachen, etwa des Italienischen durch den Soggetario und auf die Anreicherung der Daten, etwa mit DDC-Notationen durch die Nähe zum DDB-Projekt "CrissCross". Federica PARADISI, die in der Sacherschließungsabteilung der BNC in Florenz sowohl für die italienische Übersetzung der DDC und deren Anwendung in ganz Italien als auch für die Überarbeitung des seit 1956 existierenden italienischen Wortschatzes für die verbale Erschließung und für dessen Aufbereitung zu einer modernen, bald auch elektronischen Normdatei zuständig ist und an der Erstellung der italienischen Nationalbibliografie mitwirkt, hat zuletzt gemeinsam mit Anna Lucarelli den Prototyp des "Nuovo Soggetario" erarbeitet und stellte dieses umfangreiche Projekt vor. Der von ihr skizzierte Zeitplan gibt Anlass zur Hoffnung, dass MACS für die Auffindung beschlagworteter Literatur in Bibliothekskatalogen schon in einem Jahr um einen sprachlichen Zugang reicher sein könnte. Beide Gastreferenten/-innen standen dem Auditorium im Anschluss an die Präsentationen für Fragen zur Verfügung, und die neuen fachlichen Kontakte vertieften sich in den Pausengesprächen noch mehr. Vor der Führung durch die Dewey-Ausstellung im Lichthof der UB Bozen demonstrierte Margit SANDNER zum Abschluss dieses multilingualen Sacherschließungsnachmittags mit einigen Beispielen in deutscherSprache die Suchfunktionen in den beiden Webversionen von DDC Deutsch MelvilSearch (für OPACs) und MelvilClass (für das Klassifizieren) und kündigte an, dass ab Oktober bis Jahresende kostenlose Testaccounts vergeben werden. Wer daran interessiert ist, diese deutschsprachigen Webtools bereits auszuprobieren, wendet sich am besten direkt an Herrn Dr. Lars Svensson in Der Deutschen Bibliothek in Frankfurt: svensson@dbf.ddb.de. Die ab Jänner 2006 gültigen Lizenzbedingungen für "Melvil" entnehmen Sie bitte: http//www.ddc-deutsch.de/licence-melvil.html Noch zwei aktuelle Hinweise: - Informationstag der Arbeitsstelle für Standardisierung (DDB) über aktuelle Tendenzen in Sachen Regelwerke f. Formal- und Sacherschließung, Formate, Normdateien und Datentausch am 15. November in Wien. - Aufsatz über die Zukunft der SWD von Esther Scheven (BD 2005, H. 6, S. 748-773), in dem u. a. auch auf unsere seinerzeitige KofSE-Studie: Schlagwort "Benutzerforschung" ... (VÖB-Mitt. 1997, H. 3-4, S. 28-49) rekurriert wird."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.83-84
  4. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.017469725 = product of:
      0.08385468 = sum of:
        0.023361778 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.023361778 = score(doc=1515,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.016647318 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.016647318 = score(doc=1515,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.014531613 = weight(_text_:der in 1515) [ClassicSimilarity], result of:
          0.014531613 = score(doc=1515,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 1515, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.023361778 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.023361778 = score(doc=1515,freq=48.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.005952192 = product of:
          0.011904384 = sum of:
            0.011904384 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.011904384 = score(doc=1515,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  5. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.02
    0.016674934 = product of:
      0.1000496 = sum of:
        0.015079963 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.015079963 = score(doc=1512,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.018760232 = weight(_text_:der in 1512) [ClassicSimilarity], result of:
          0.018760232 = score(doc=1512,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3823389 = fieldWeight in 1512, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.015079963 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.015079963 = score(doc=1512,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.05112944 = sum of:
          0.039225057 = weight(_text_:deutschland in 1512) [ClassicSimilarity], result of:
            0.039225057 = score(doc=1512,freq=6.0), product of:
              0.10609499 = queryWeight, product of:
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.021966046 = queryNorm
              0.36971638 = fieldWeight in 1512, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                4.829954 = idf(docFreq=959, maxDocs=44218)
                0.03125 = fieldNorm(doc=1512)
          0.011904384 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
            0.011904384 = score(doc=1512,freq=2.0), product of:
              0.07692135 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.021966046 = queryNorm
              0.15476047 = fieldWeight in 1512, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1512)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  6. Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011) 0.02
    0.016655874 = product of:
      0.079948194 = sum of:
        0.022619944 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.022619944 = score(doc=2782,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.011167361 = weight(_text_:des in 2782) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2782,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.014531613 = weight(_text_:der in 2782) [ClassicSimilarity], result of:
          0.014531613 = score(doc=2782,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 2782, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
        0.009009332 = product of:
          0.018018665 = sum of:
            0.018018665 = weight(_text_:29 in 2782) [ClassicSimilarity], result of:
              0.018018665 = score(doc=2782,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.23319192 = fieldWeight in 2782, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2782)
          0.5 = coord(1/2)
        0.022619944 = weight(_text_:und in 2782) [ClassicSimilarity], result of:
          0.022619944 = score(doc=2782,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.46462005 = fieldWeight in 2782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2782)
      0.20833333 = coord(5/24)
    
    Abstract
    Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
    Date
    29. 3.2013 17:46:08
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Ulrich, P.S.: Multilinguale kollaborative Auskunftsdienste mit QuestionPoint (2005) 0.02
    0.015618993 = product of:
      0.093713954 = sum of:
        0.014454362 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4306,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4306, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4306)
        0.04404146 = weight(_text_:fragen in 4306) [ClassicSimilarity], result of:
          0.04404146 = score(doc=4306,freq=2.0), product of:
            0.11184209 = queryWeight, product of:
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.021966046 = queryNorm
            0.39378253 = fieldWeight in 4306, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.0915895 = idf(docFreq=738, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4306)
        0.020763772 = weight(_text_:der in 4306) [ClassicSimilarity], result of:
          0.020763772 = score(doc=4306,freq=12.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4231716 = fieldWeight in 4306, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4306)
        0.014454362 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.014454362 = score(doc=4306,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 4306, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4306)
      0.16666667 = coord(4/24)
    
    Abstract
    Besucht jemand eine Bibliothekswebseite und möchte dort eine Frage stellen, wird er in der ganzen WeIt mit einer ähnlichen Situation konfrontiert: die Seiten werden nur in der/(den) Landessprache(n) der Bibliothek und vielleicht in einer anderen Sprache - meist Englisch - angeboten. Wenn der Besucher die auf diesen Seiten verwendeten Sprachen nicht kennt, ist der vermittelte Eindruck: "Wir können Deine Frage nicht verstehen. Wenn Du nicht diese Sprache für Deine Frage verwendest, wird Deine Frage nicht beantwortet." In einer WeIt, in der man zunehmend versucht Barrieren zu reduzieren bzw. abzuschaffen, sollten sich Bibliotheken fragen, ob es nicht Möglichkeiten gibt, die vorhandene sprachliche Barriere abzubauen und Dienste in mehreren Sprachen anzubieten.
  8. Reinisch, F.: Wer suchet - der findet? : oder Die Überwindung der sprachlichen Grenzen bei der Suche in Volltextdatenbanken (2000) 0.02
    0.0153614655 = product of:
      0.073735036 = sum of:
        0.016519273 = weight(_text_:und in 4919) [ClassicSimilarity], result of:
          0.016519273 = score(doc=4919,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.016779663 = weight(_text_:der in 4919) [ClassicSimilarity], result of:
          0.016779663 = score(doc=4919,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.0120124435 = product of:
          0.024024887 = sum of:
            0.024024887 = weight(_text_:29 in 4919) [ClassicSimilarity], result of:
              0.024024887 = score(doc=4919,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31092256 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
          0.5 = coord(1/2)
        0.016519273 = weight(_text_:und in 4919) [ClassicSimilarity], result of:
          0.016519273 = score(doc=4919,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.011904384 = product of:
          0.023808768 = sum of:
            0.023808768 = weight(_text_:22 in 4919) [ClassicSimilarity], result of:
              0.023808768 = score(doc=4919,freq=2.0), product of:
                0.07692135 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021966046 = queryNorm
                0.30952093 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
          0.5 = coord(1/2)
      0.20833333 = coord(5/24)
    
    Date
    22. 7.2000 17:48:06
    Source
    Dokumente und Datenbanken in elektronischen Netzen: Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997. Hrsg.: E. Pipp
  9. Zimmermann, H.H.: Überlegungen zu einem multilingualen Thesaurus-Konzept (1995) 0.01
    0.01455079 = product of:
      0.08730474 = sum of:
        0.019074813 = weight(_text_:und in 2076) [ClassicSimilarity], result of:
          0.019074813 = score(doc=2076,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 2076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2076)
        0.02977963 = weight(_text_:des in 2076) [ClassicSimilarity], result of:
          0.02977963 = score(doc=2076,freq=8.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.48954904 = fieldWeight in 2076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2076)
        0.019375484 = weight(_text_:der in 2076) [ClassicSimilarity], result of:
          0.019375484 = score(doc=2076,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 2076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2076)
        0.019074813 = weight(_text_:und in 2076) [ClassicSimilarity], result of:
          0.019074813 = score(doc=2076,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 2076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2076)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Thesaurus-Thematik wird zunächst in den Zusammenhang der gesamten Erschließungs- und Retrievalmöglichkeiten eines Information-Retrieval-Systems gestellt. Auf dieser Grundlage wird ein multilinguales Thesaurus-Konzept entwickelt. Wichtige Elemente sind: die Ermöglichung des Zugangs anhand des Benutzervokabulars, eine systematische, transparente Bedeutungsdifferenzierung und eine Basis-Relationierung anhand einer einzigen ("ausgezeichneten") natürlichen Sprache.
    Series
    Fortschritte in der Wissensorganisation; Bd.3
    Source
    Konstruktion und Retrieval von Wissen: 3. Tagung der Deutschen ISKO-Sektion einschließlich der Vorträge des Workshops "Thesauri als terminologische Lexika", Weilburg, 27.-29.10.1993. Hrsg.: N. Meder u.a
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Haendler, H.: Probleme der inhaltlichen Erschließung von Dokumenten in internationalen Verbundsystemen (1986) 0.01
    0.014312788 = product of:
      0.085876726 = sum of:
        0.020441556 = weight(_text_:und in 7407) [ClassicSimilarity], result of:
          0.020441556 = score(doc=7407,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 7407, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7407)
        0.022566179 = weight(_text_:des in 7407) [ClassicSimilarity], result of:
          0.022566179 = score(doc=7407,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.3709667 = fieldWeight in 7407, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7407)
        0.022427438 = weight(_text_:der in 7407) [ClassicSimilarity], result of:
          0.022427438 = score(doc=7407,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4570776 = fieldWeight in 7407, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7407)
        0.020441556 = weight(_text_:und in 7407) [ClassicSimilarity], result of:
          0.020441556 = score(doc=7407,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41987535 = fieldWeight in 7407, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=7407)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Vorteile internationaler Verbundsysteme werden durch Schwierigkeiten bei der Inhaltserschließung gefährdet. Abweichungen des tatsächlichen Selektionsergebnisses vom gewünschten Selektionsziel sind sprachlich bedingt; sie werden insbesondere durch Polysemie, Kontextabhängigkeit und syntaktische Ambiguität verursacht. Unter mehrsprachigen Bedingungen verschlechtert sich die Selektivität; es entstehen sprachabhängig unterschiedliche Selektionsergebnisse. Verbesserung ist nur bei Schaffung und sachgerechter Anwendung eines solchen multilingualen Thesaurus zu erreichen, der größtmögliche semantische Isomorphie (klare und übereinstimmende Begriffsabgrenzung) zwischen den Vokabularen und exakte semantische Äquivalenz zwischen den Deskriptoren gewährleistet. Dies erfordert hohe Aufwendungen, ist aber wichtiger als die Speicherung großer Mengen schlecht selektierbarer Dokumentationseinheiten
    Content
    Enthält die 'semantischen Verwirrspiele', die die Probleme der Relationierungen in multilingualen Erschließungssystemen beleuchten
    Footnote
    Vortrag, gehalten auf der Tagung der GBDL in Berlin, April 1986
    Source
    Mitteilungen der Gesellschaft für Bibliothekswesen und Dokumentation des Landbaues. 1986, H.38, S.59-83
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.01
    0.014018601 = product of:
      0.0841116 = sum of:
        0.017521333 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.017521333 = score(doc=5964,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.024970978 = weight(_text_:des in 5964) [ClassicSimilarity], result of:
          0.024970978 = score(doc=5964,freq=10.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.41049933 = fieldWeight in 5964, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.024097953 = weight(_text_:der in 5964) [ClassicSimilarity], result of:
          0.024097953 = score(doc=5964,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4911232 = fieldWeight in 5964, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
        0.017521333 = weight(_text_:und in 5964) [ClassicSimilarity], result of:
          0.017521333 = score(doc=5964,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 5964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5964)
      0.16666667 = coord(4/24)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Carter-Sigglow, J.: ¬Die Rolle der Sprache bei der Informationsvermittlung (2001) 0.01
    0.013030607 = product of:
      0.07818364 = sum of:
        0.021459164 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5882,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.011167361 = weight(_text_:des in 5882) [ClassicSimilarity], result of:
          0.011167361 = score(doc=5882,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 5882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.024097953 = weight(_text_:der in 5882) [ClassicSimilarity], result of:
          0.024097953 = score(doc=5882,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4911232 = fieldWeight in 5882, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
        0.021459164 = weight(_text_:und in 5882) [ClassicSimilarity], result of:
          0.021459164 = score(doc=5882,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4407773 = fieldWeight in 5882, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5882)
      0.16666667 = coord(4/24)
    
    Abstract
    In der Zeit des Internets und E-Commerce müssen auch deutsche Informationsfachleute ihre Dienste auf Englisch anbieten und sogar auf Englisch gestalten, um die internationale Community zu erreichen. Auf der anderen Seite spielt gerade auf dem Wissensmarkt Europa die sprachliche Identität der einzelnen Nationen eine große Rolle. In diesem Spannungsfeld zwischen Globalisierung und Lokalisierung arbeiten Informationsvermittler und werden dabei von Sprachspezialisten unterstützt. Man muss sich darüber im Klaren sein, dass jede Sprache - auch die für international gehaltene Sprache Englisch - eine Sprachgemeinschaft darstellt. In diesem Beitrag wird anhand aktueller Beispiele gezeigt, dass Sprache nicht nur grammatikalisch und terminologisch korrekt sein muss, sie soll auch den sprachlichen Erwartungen der Rezipienten gerecht werden, um die Grenzen der Sprachwelt nicht zu verletzen. Die Rolle der Sprachspezialisten besteht daher darin, die Informationsvermittlung zwischen diesen Welten reibungslos zu gestalten
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Yetim, F.: Multilinguale Aspekte von Text und Hypertext (1996) 0.01
    0.012387009 = product of:
      0.07432205 = sum of:
        0.021326289 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.021326289 = score(doc=6118,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.014889815 = weight(_text_:des in 6118) [ClassicSimilarity], result of:
          0.014889815 = score(doc=6118,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 6118, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.016779663 = weight(_text_:der in 6118) [ClassicSimilarity], result of:
          0.016779663 = score(doc=6118,freq=6.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34197432 = fieldWeight in 6118, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
        0.021326289 = weight(_text_:und in 6118) [ClassicSimilarity], result of:
          0.021326289 = score(doc=6118,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 6118, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6118)
      0.16666667 = coord(4/24)
    
    Abstract
    In diesem Beitrag werden Aspekte der Multilingualität für die Hypertextforschung behandelt. Dabei werden einige Ergebnisse empirischer Arbeit zu interlingualen Textvergleichen vorgestellt und davon ausgehend ihre Anwendbarkeit auf Hypertext diskutiert. Darüberhinaus wird auf ein für Text und Hypertexte gleichermaßen wichtiges Diskursphänomen, die Konnektivität kontrastiv im Türkischen und Deutschen eingegangen. In diesem Zusammenhang wird auch der Nutzen wissensbasierter Verfahren in der Hypertextforschung angesprochen
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  14. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.01
    0.012214802 = product of:
      0.07328881 = sum of:
        0.016859911 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.016859911 = score(doc=4335,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.016118698 = weight(_text_:des in 4335) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4335,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4335, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.02345029 = weight(_text_:der in 4335) [ClassicSimilarity], result of:
          0.02345029 = score(doc=4335,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.47792363 = fieldWeight in 4335, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.016859911 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.016859911 = score(doc=4335,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
      0.16666667 = coord(4/24)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Series
    Fortschritte in der Wissensorganisation; Bd.10
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  15. Ludwig, L.: Lösung zum multilingualen Wissensmanagement semantischer Informationen (2010) 0.01
    0.011946382 = product of:
      0.07167829 = sum of:
        0.019769998 = weight(_text_:und in 4281) [ClassicSimilarity], result of:
          0.019769998 = score(doc=4281,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40608138 = fieldWeight in 4281, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
        0.016118698 = weight(_text_:des in 4281) [ClassicSimilarity], result of:
          0.016118698 = score(doc=4281,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 4281, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
        0.016019598 = weight(_text_:der in 4281) [ClassicSimilarity], result of:
          0.016019598 = score(doc=4281,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.326484 = fieldWeight in 4281, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
        0.019769998 = weight(_text_:und in 4281) [ClassicSimilarity], result of:
          0.019769998 = score(doc=4281,freq=22.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.40608138 = fieldWeight in 4281, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
      0.16666667 = coord(4/24)
    
    Abstract
    Ein System zum mehrsprachigen Wissensmanagement semantischer Informationen wird vorgestellt: das Semantic Wiki Artificial Memory. Seine Grundidee wird kurz skizziert. Verschiedene aktuelle Probleme des technikgestützten Wissensmanagements werden erläutert und eine neuartige Kombination aus innovativen und bekannten Lösungen für diese Probleme veranschaulicht.
    Content
    "Bis vor wenigen Jahren waren kürzere physische Schriftstücke und Bücher die bevorzugten Mittel beim Gedankenverfassen und Gedankenaustausch. Dokumentenregister halfen beim Auffinden, Gliederungen unterstützten beim Zurechtfinden, ggf. assistierten Stichwortverzeichnisse beim Herauspicken. Diese inkrementelle Orientierung weicht zunehmend einer reinen Stichwortsuche in elektronischen Dokumentenkorpora, insbesondere dem WWW. Dokumentenregister, Gliederungen und Stichwortverzeichnisse werden von auf Wortindexen aufbauenden Suchmaschinen ausgehebelt. Das Suchergebnis verweist direkt auf einen einzelnen Textausschnitt (Snippet). Zurechtfinden im Dokument und Auffinden der richtigen Dokumente(nvorschläge) erfolgen nun, wenn überhaupt, in umgekehrter Reihenfolge und demgemäß unter Umständen sehr mühsam. Auf Anhieb erfolgreich ist eine solche Suche allerdings dann, wenn das Zieldokument auf das Stichwort völlig zugeschnitten erscheint, wenn also förmlich Textausschnitt, Kapitel und Dokument in eins fallen. Der Sog der Suchmaschinen zerschlägt die traditionelle sequentielle Dokumentengliederung, zerschlägt zuletzt das Dokument selbst in immer kleinere suchmaschinengerechte Einheiten. Auf solche Weise löst die Indexierung in Einzelwörter letztlich das Dokument selbst auf. Zurück bleibt allein eine Ansammlung indexgemäß geordneter Informationseinheiten: das Lexikon oder der Katalog. Im elektronisch gestützten Wissensmanagement nimmt nun das Wiki den Platz des Lexikons ein und der benamste Wikieintrag den Platz des Dokumentes."
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  16. Busch, D.: Organisation eines Thesaurus für die Unterstützung der mehrsprachigen Suche in einer bibliographischen Datenbank im Bereich Planen und Bauen (2016) 0.01
    0.011930211 = product of:
      0.07158127 = sum of:
        0.017882636 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.017882636 = score(doc=3308,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.013160862 = weight(_text_:des in 3308) [ClassicSimilarity], result of:
          0.013160862 = score(doc=3308,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 3308, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.022655133 = weight(_text_:der in 3308) [ClassicSimilarity], result of:
          0.022655133 = score(doc=3308,freq=28.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.46171808 = fieldWeight in 3308, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
        0.017882636 = weight(_text_:und in 3308) [ClassicSimilarity], result of:
          0.017882636 = score(doc=3308,freq=18.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3673144 = fieldWeight in 3308, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3308)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Problem der mehrsprachigen Suche gewinnt in der letzten Zeit immer mehr an Bedeutung, da viele nützliche Fachinformationen in der Welt in verschiedenen Sprachen publiziert werden. RSWBPlus ist eine bibliographische Datenbank zum Nachweis der Fachliteratur im Bereich Planen und Bauen, welche deutsch- und englischsprachige Metadaten-Einträge enthält. Bis vor Kurzem war es problematisch Einträge zu finden, deren Sprache sich von der Anfragesprache unterschied. Zum Beispiel fand man auf deutschsprachige Anfragen nur deutschsprachige Einträge, obwohl die Datenbank auch potenziell nützliche englischsprachige Einträge enthielt. Um das Problem zu lösen, wurde nach einer Untersuchung bestehender Ansätze, die RSWBPlus weiterentwickelt, um eine mehrsprachige (sprachübergreifende) Suche zu unterstützen, welche unter Einbeziehung eines zweisprachigen begriffbasierten Thesaurus erfolgt. Der Thesaurus wurde aus bereits bestehenden Thesauri automatisch gebildet. Die Einträge der Quell-Thesauri wurden in SKOS-Format (Simple Knowledge Organisation System) umgewandelt, automatisch miteinander vereinigt und schließlich in einen Ziel-Thesaurus eingespielt, der ebenfalls in SKOS geführt wird. Für den Zugriff zum Ziel-Thesaurus werden Apache Jena und MS SQL Server verwendet. Bei der mehrsprachigen Suche werden Terme der Anfrage durch entsprechende Übersetzungen und Synonyme in Deutsch und Englisch erweitert. Die Erweiterung der Suchterme kann sowohl in der Laufzeit, als auch halbautomatisch erfolgen. Das verbesserte Recherchesystem kann insbesondere deutschsprachigen Benutzern helfen, relevante englischsprachige Einträge zu finden. Die Verwendung vom SKOS erhöht die Interoperabilität der Thesauri, vereinfacht das Bilden des Ziel-Thesaurus und den Zugriff zu seinen Einträgen.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Riem, A.: IATE - Die Terminologiedatenbank der EU (2008) 0.01
    0.011896588 = product of:
      0.07137953 = sum of:
        0.017521333 = weight(_text_:und in 2469) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2469,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2469, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2469)
        0.011167361 = weight(_text_:des in 2469) [ClassicSimilarity], result of:
          0.011167361 = score(doc=2469,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 2469, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=2469)
        0.025169495 = weight(_text_:der in 2469) [ClassicSimilarity], result of:
          0.025169495 = score(doc=2469,freq=24.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5129615 = fieldWeight in 2469, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2469)
        0.017521333 = weight(_text_:und in 2469) [ClassicSimilarity], result of:
          0.017521333 = score(doc=2469,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.35989314 = fieldWeight in 2469, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2469)
      0.16666667 = coord(4/24)
    
    Abstract
    IATE ist die gemeinsame Terminologiedatenbank der Organe und Einrichtungen der Europäischen Union. Die Idee entsprang dem Wunsch des Übersetzungszentrums für die Einrichtungen der Europäischen Union nach einer umfassenden Terminologiedatenbank, die seinen spezifischen Anforderungen als Übersetzungsdienstleister für die dezentralen Einrichtungen ('agencies') der EU gerecht wird. Daher stammt auch die ursprüngliche Bezeichnung Inter-agency terminology exchange. Die Entwicklung der Datenbank begann Anfang 2000. Zu diesem Zeitpunkt hatten die wichtigsten Organe der Gemeinschaft ihr Interesse an einem gemeinsamen Terminologiewerkzeug bekundet und sich dem Projekt angeschlossen, das heute neben dem Übersetzungszentrum neun weitere Partner zählt: Europäische Kommission, Rat, Europäisches Parlament, Europäischer Gerichtshof, Europäischer Rechungshof, Europäischer Wirtschafts- und Sozialausschuss, Ausschuss der Regionen, Europäische Zentralbank und Europäische Investitionsbank. 2001 wurde der erste Prototyp vorgestellt, jedoch sollten weitere drei Jahre vergehen, bis das System für groß angelegte Tests reif war. So erhielt im August 2004 eine ausgewählte Nutzergruppe Zugang zu der neuen Datenbank, und Anfang 2005 erlangte IATE, das inzwischen in Inter-Active Terminology for Europe umbenannt worden war, die volle Einsatzfähigkeit innerhalb der Generaldirektion Übersetzung der Europäischen Kommission. Es ersetzte damit Eurodicautom als die zentrale Terminologiedatenbank für interne Nutzer.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.8, S.425-427
  18. Womser-Hacker, C.: Zur Rolle von Eigennamen im Cross-Language Information Retrieval (2006) 0.01
    0.011299411 = product of:
      0.06779646 = sum of:
        0.016519273 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.016519273 = score(doc=6073,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.021057379 = weight(_text_:des in 6073) [ClassicSimilarity], result of:
          0.021057379 = score(doc=6073,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.34616345 = fieldWeight in 6073, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.013700536 = weight(_text_:der in 6073) [ClassicSimilarity], result of:
          0.013700536 = score(doc=6073,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 6073, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
        0.016519273 = weight(_text_:und in 6073) [ClassicSimilarity], result of:
          0.016519273 = score(doc=6073,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.33931053 = fieldWeight in 6073, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6073)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Mittelpunkt des vorliegenden Beitrags steht das Cross-Language Information Retrieval, das mit seinen sprachübergreifenden Funktionen zur Minderung von Sprachbarrieren bei der Informationssuche beiträgt. Hier sollen insbesondere die Eigennamen untersucht werden. Evaluierungsstudien haben gezeigt, dass ihnen aufgrund ihrer besonderen Eigenschaften eine wichtige Rolle bei der Identifikation von relevanten Dokumenten zukommt. Verfahren für die Optimierung des mehrsprachigen Retrievalprozesses werden angesprochen.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  19. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.01
    0.01121719 = product of:
      0.067303136 = sum of:
        0.018660503 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.018660503 = score(doc=5978,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.013028587 = weight(_text_:des in 5978) [ClassicSimilarity], result of:
          0.013028587 = score(doc=5978,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 5978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.016953548 = weight(_text_:der in 5978) [ClassicSimilarity], result of:
          0.016953548 = score(doc=5978,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 5978, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.018660503 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.018660503 = score(doc=5978,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  20. Schruff, R.; Dickhaus, C.: ¬Der multilinguale Thesaurus Ethik in den Biowissenschaften (2004) 0.01
    0.011205023 = product of:
      0.067230135 = sum of:
        0.021326289 = weight(_text_:und in 3045) [ClassicSimilarity], result of:
          0.021326289 = score(doc=3045,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 3045, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.014889815 = weight(_text_:des in 3045) [ClassicSimilarity], result of:
          0.014889815 = score(doc=3045,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 3045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.009687742 = weight(_text_:der in 3045) [ClassicSimilarity], result of:
          0.009687742 = score(doc=3045,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 3045, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
        0.021326289 = weight(_text_:und in 3045) [ClassicSimilarity], result of:
          0.021326289 = score(doc=3045,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.438048 = fieldWeight in 3045, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3045)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Deutsche Referenzzentrum für Ethik in den Biowissenschaften (DRZE) in Bonn veröffentlicht zusammen mit nationalen und internationalen Partnern den neuen, mehrsprachigen Thesaurus Ethik in den Biowissenschaften. Das Werkzeug zur Recherche und Verschlagwortung liegt derzeit in deutscher und englischer Sprache vor. Eine französische Version folgt 2005. Insbesondere die Online-Version des Thesaurus bietet komfortable Navigations- und Suchmöglichkeiten.
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.7, S.411-413

Years

Languages

  • e 79
  • d 43
  • f 5
  • ro 2
  • More… Less…