Search (143 results, page 1 of 8)

  • × theme_ss:"Multilinguale Probleme"
  1. Effektive Information Retrieval Verfahren in Theorie und Praxis : ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005 (2006) 0.05
    0.049683157 = product of:
      0.08280526 = sum of:
        0.050106406 = weight(_text_:patent in 5973) [ClassicSimilarity], result of:
          0.050106406 = score(doc=5973,freq=4.0), product of:
            0.24282473 = queryWeight, product of:
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.036774147 = queryNorm
            0.20634803 = fieldWeight in 5973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.603137 = idf(docFreq=162, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.030919798 = weight(_text_:und in 5973) [ClassicSimilarity], result of:
          0.030919798 = score(doc=5973,freq=120.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3793607 = fieldWeight in 5973, product of:
              10.954452 = tf(freq=120.0), with freq of:
                120.0 = termFreq=120.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=5973)
        0.0017790576 = product of:
          0.00711623 = sum of:
            0.00711623 = weight(_text_:m in 5973) [ClassicSimilarity], result of:
              0.00711623 = score(doc=5973,freq=4.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.07776402 = fieldWeight in 5973, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.015625 = fieldNorm(doc=5973)
          0.25 = coord(1/4)
      0.6 = coord(3/5)
    
    Abstract
    Information Retrieval hat sich zu einer Schlüsseltechnologie in der Wissensgesellschaft entwickelt. Die Anzahl der täglichen Anfragen an Internet-Suchmaschinen bildet nur einen Indikator für die große Bedeutung dieses Themas. Der Sammelbandband informiert über Themen wie Information Retrieval-Grundlagen, Retrieval Systeme, Digitale Bibliotheken, Evaluierung und Multilinguale Systeme, beschreibt Anwendungsszenarien und setzt sich mit neuen Herausforderungen an das Information Retrieval auseinander. Die Beiträge behandeln aktuelle Themen und neue Herausforderungen an das Information Retrieval. Die intensive Beteiligung der Informationswissenschaft der Universität Hildesheim am Cross Language Evaluation Forum (CLEF), einer europäischen Evaluierungsinitiative zur Erforschung mehrsprachiger Retrieval Systeme, berührt mehrere der Beiträge. Ebenso spielen Anwendungsszenarien und die Auseinandersetzung mit aktuellen und praktischen Fragestellungen eine große Rolle.
    Content
    Inhalt: Jan-Hendrik Scheufen: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten Markus Nick, Klaus-Dieter Althoff: Designing Maintainable Experience-based Information Systems Gesine Quint, Steffen Weichert: Die benutzerzentrierte Entwicklung des Produkt- Retrieval-Systems EIKON der Blaupunkt GmbH Claus-Peter Klas, Sascha Kriewel, André Schaefer, Gudrun Fischer: Das DAFFODIL System - Strategische Literaturrecherche in Digitalen Bibliotheken Matthias Meiert: Entwicklung eines Modells zur Integration digitaler Dokumente in die Universitätsbibliothek Hildesheim Daniel Harbig, René Schneider: Ontology Learning im Rahmen von MyShelf Michael Kluck, Marco Winter: Topic-Entwicklung und Relevanzbewertung bei GIRT: ein Werkstattbericht Thomas Mandl: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval Joachim Pfister: Clustering von Patent-Dokumenten am Beispiel der Datenbanken des Fachinformationszentrums Karlsruhe Ralph Kölle, Glenn Langemeier, Wolfgang Semar: Programmieren lernen in kollaborativen Lernumgebungen Olga Tartakovski, Margaryta Shramko: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten Nina Kummer: Indexierungstechniken für das japanische Retrieval Suriya Na Nhongkai, Hans-Joachim Bentz: Bilinguale Suche mittels Konzeptnetzen Robert Strötgen, Thomas Mandl, René Schneider: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) Niels Jensen: Evaluierung von mehrsprachigem Web-Retrieval: Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF)
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 57(2006) H.5, S.290-291 (C. Schindler): "Weniger als ein Jahr nach dem "Vierten Hildesheimer Evaluierungs- und Retrievalworkshop" (HIER 2005) im Juli 2005 ist der dazugehörige Tagungsband erschienen. Eingeladen hatte die Hildesheimer Informationswissenschaft um ihre Forschungsergebnisse und die einiger externer Experten zum Thema Information Retrieval einem Fachpublikum zu präsentieren und zur Diskussion zu stellen. Unter dem Titel "Effektive Information Retrieval Verfahren in Theorie und Praxis" sind nahezu sämtliche Beiträge des Workshops in dem nun erschienenen, 15 Beiträge umfassenden Band gesammelt. Mit dem Schwerpunkt Information Retrieval (IR) wird ein Teilgebiet der Informationswissenschaft vorgestellt, das schon immer im Zentrum informationswissenschaftlicher Forschung steht. Ob durch den Leistungsanstieg von Prozessoren und Speichermedien, durch die Verbreitung des Internet über nationale Grenzen hinweg oder durch den stetigen Anstieg der Wissensproduktion, festzuhalten ist, dass in einer zunehmend wechselseitig vernetzten Welt die Orientierung und das Auffinden von Dokumenten in großen Wissensbeständen zu einer zentralen Herausforderung geworden sind. Aktuelle Verfahrensweisen zu diesem Thema, dem Information Retrieval, präsentiert der neue Band anhand von praxisbezogenen Projekten und theoretischen Diskussionen. Das Kernthema Information Retrieval wird in dem Sammelband in die Bereiche Retrieval-Systeme, Digitale Bibliothek, Evaluierung und Multilinguale Systeme untergliedert. Die Artikel der einzelnen Sektionen sind insgesamt recht heterogen und bieten daher keine Überschneidungen inhaltlicher Art. Jedoch ist eine vollkommene thematische Abdeckung der unterschiedlichen Bereiche ebenfalls nicht gegeben, was bei der Präsentation von Forschungsergebnissen eines Institutes und seiner Kooperationspartner auch nur bedingt erwartet werden kann. So lässt sich sowohl in der Gliederung als auch in den einzelnen Beiträgen eine thematische Verdichtung erkennen, die das spezielle Profil und die Besonderheit der Hildesheimer Informationswissenschaft im Feld des Information Retrieval wiedergibt. Teil davon ist die mehrsprachige und interdisziplinäre Ausrichtung, die die Schnittstellen zwischen Informationswissenschaft, Sprachwissenschaft und Informatik in ihrer praxisbezogenen und internationalen Forschung fokussiert.
    Im ersten Kapitel "Retrieval-Systeme" werden verschiedene Information RetrievalSysteme präsentiert und Verfahren zu deren Gestaltung diskutiert. Jan-Hendrik Scheufen stellt das Meta-Framework RECOIN zur Information Retrieval Forschung vor, das sich durch eine flexible Handhabung unterschiedlichster Applikationen auszeichnet und dadurch eine zentrierte Protokollierung und Steuerung von Retrieval-Prozessen ermöglicht. Dieses Konzept eines offenen, komponentenbasierten Systems wurde in Form eines Plug-Ins für die javabasierte Open-Source-Plattform Eclipse realisiert. Markus Nick und Klaus-Dieter Althoff erläutern in ihrem Beitrag, der übrigens der einzige englischsprachige Text im Buch ist, das Verfahren DILLEBIS zur Erhaltung und Pflege (Maintenance) von erfahrungsbasierten Informationssystemen. Sie bezeichnen dieses Verfahren als Maintainable Experience-based Information System und plädieren für eine Ausrichtung von erfahrungsbasierten Systemen entsprechend diesem Modell. Gesine Quint und Steffen Weichert stellen dagegen in ihrem Beitrag die benutzerzentrierte Entwicklung des Produkt-Retrieval-Systems EIKON vor, das in Kooperation mit der Blaupunkt GmbH realisiert wurde. In einem iterativen Designzyklus erfolgte die Gestaltung von gruppenspezifischen Interaktionsmöglichkeiten für ein Car-Multimedia-Zubehör-System. Im zweiten Kapitel setzen sich mehrere Autoren dezidierter mit dem Anwendungsgebiet "Digitale Bibliothek" auseinander. Claus-Peter Klas, Sascha Kriewel, Andre Schaefer und Gudrun Fischer von der Universität Duisburg-Essen stellen das System DAFFODIL vor, das durch eine Vielzahl an Werkzeugen zur strategischen Unterstützung bei Literaturrecherchen in digitalen Bibliotheken dient. Zusätzlich ermöglicht die Protokollierung sämtlicher Ereignisse den Einsatz des Systems als Evaluationsplattform. Der Aufsatz von Matthias Meiert erläutert die Implementierung von elektronischen Publikationsprozessen an Hochschulen am Beispiel von Abschlussarbeiten des Studienganges Internationales Informationsmanagement der Universität Hildesheim. Neben Rahmenbedingungen werden sowohl der Ist-Zustand als auch der Soll-Zustand des wissenschaftlichen elektronischen Publizierens in Form von gruppenspezifischen Empfehlungen dargestellt. Daniel Harbig und Rene Schneider beschreiben in ihrem Aufsatz zwei Verfahrensweisen zum maschinellen Erlernen von Ontologien, angewandt am virtuellen Bibliotheksregal MyShelf. Nach der Evaluation dieser beiden Ansätze plädieren die Autoren für ein semi-automatisiertes Verfahren zur Erstellung von Ontologien.
    "Evaluierung", das Thema des dritten Kapitels, ist in seiner Breite nicht auf das Information Retrieval beschränkt sondern beinhaltet ebenso einzelne Aspekte der Bereiche Mensch-Maschine-Interaktion sowie des E-Learning. Michael Muck und Marco Winter von der Stiftung Wissenschaft und Politik sowie dem Informationszentrum Sozialwissenschaften thematisieren in ihrem Beitrag den Einfluss der Fragestellung (Topic) auf die Bewertung von Relevanz und zeigen Verfahrensweisen für die Topic-Erstellung auf, die beim Cross Language Evaluation Forum (CLEF) Anwendung finden. Im darauf folgenden Aufsatz stellt Thomas Mandl verschiedene Evaluierungsinitiativen im Information Retrieval und aktuelle Entwicklungen dar. Joachim Pfister erläutert in seinem Beitrag das automatisierte Gruppieren, das sogenannte Clustering, von Patent-Dokumenten in den Datenbanken des Fachinformationszentrums Karlsruhe und evaluiert unterschiedliche Clusterverfahren auf Basis von Nutzerbewertungen. Ralph Kölle, Glenn Langemeier und Wolfgang Semar widmen sich dem kollaborativen Lernen unter den speziellen Bedingungen des Programmierens. Dabei werden das System VitaminL zur synchronen Bearbeitung von Programmieraufgaben und das Kennzahlensystem K-3 für die Bewertung kollaborativer Zusammenarbeit in einer Lehrveranstaltung angewendet. Der aktuelle Forschungsschwerpunkt der Hildesheimer Informationswissenschaft zeichnet sich im vierten Kapitel unter dem Thema "Multilinguale Systeme" ab. Hier finden sich die meisten Beiträge des Tagungsbandes wieder. Olga Tartakovski und Margaryta Shramko beschreiben und prüfen das System Langldent, das die Sprache von mono- und multilingualen Texten identifiziert. Die Eigenheiten der japanischen Schriftzeichen stellt Nina Kummer dar und vergleicht experimentell die unterschiedlichen Techniken der Indexierung. Suriya Na Nhongkai und Hans-Joachim Bentz präsentieren und prüfen eine bilinguale Suche auf Basis von Konzeptnetzen, wobei die Konzeptstruktur das verbindende Elemente der beiden Textsammlungen darstellt. Das Entwickeln und Evaluieren eines mehrsprachigen Question-Answering-Systems im Rahmen des Cross Language Evaluation Forum (CLEF), das die alltagssprachliche Formulierung von konkreten Fragestellungen ermöglicht, wird im Beitrag von Robert Strötgen, Thomas Mandl und Rene Schneider thematisiert. Den Schluss bildet der Aufsatz von Niels Jensen, der ein mehrsprachiges Web-Retrieval-System ebenfalls im Zusammenhang mit dem CLEF anhand des multilingualen EuroGOVKorpus evaluiert.
    Abschließend lässt sich sagen, dass der Tagungsband einen gelungenen Überblick über die Information Retrieval Projekte der Hildesheimer Informationswissenschaft und ihrer Kooperationspartner gibt. Die einzelnen Beiträge sind sehr anregend und auf einem hohen Niveau angesiedelt. Ein kleines Hindernis für den Leser stellt die inhaltliche und strukturelle Orientierung innerhalb des Bandes dar. Der Bezug der einzelnen Artikel zum Thema des Kapitels wird zwar im Vorwort kurz erläutert. Erschwert wird die Orientierung im Buch jedoch durch fehlende Kapitelüberschriften am Anfang der einzelnen Sektionen. Außerdem ist zu erwähnen, dass einer der Artikel einen anderen Titel als im Inhaltsverzeichnis angekündigt trägt. Sieht der Leser von diesen formalen Mängeln ab, wird er reichlich mit praxisbezogenen und theoretisch fundierten Projektdarstellungen und Forschungsergebnissen belohnt. Dies insbesondere, da nicht nur aktuelle Themen der Informationswissenschaft aufgegriffen, sondern ebenso weiterentwickelt und durch die speziellen interdisziplinären und internationalen Bedingungen in Hildesheim geformt werden. Dabei zeigt sich anhand der verschiedenen Projekte, wie gut die Hildesheimer Informationswissenschaft in die Community überregionaler Informationseinrichtungen und anderer deutscher informationswissenschaftlicher Forschungsgruppen eingebunden ist. Damit hat der Workshop bei einer weiteren Öffnung der Expertengruppe das Potential zu einer eigenständigen Institution im Bereich des Information Retrieval zu werden. In diesem Sinne lässt sich auf weitere fruchtbare Workshops und deren Veröffentlichungen hoffen. Ein nächster Workshop der Universität Hildesheim zum Thema Information Retrieval, organisiert mit der Fachgruppe Information Retrieval der Gesellschaft für Informatik, kündigt sich bereits für den 9. bis 13- Oktober 2006 an."
    Language
    m
    Type
    m
  2. Widdra, M.: Besonderheiten eines multilingualen Thesaurus : Am Beispiel des "Europäischen Thesaurus Internationale Beziehungen und Länderkunde" (2004) 0.02
    0.019612467 = product of:
      0.049031164 = sum of:
        0.04148326 = weight(_text_:und in 4628) [ClassicSimilarity], result of:
          0.04148326 = score(doc=4628,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.5089658 = fieldWeight in 4628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4628)
        0.0075479024 = product of:
          0.03019161 = sum of:
            0.03019161 = weight(_text_:m in 4628) [ClassicSimilarity], result of:
              0.03019161 = score(doc=4628,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.3299248 = fieldWeight in 4628, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4628)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.017637273 = product of:
      0.04409318 = sum of:
        0.03911079 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.03911079 = score(doc=1515,freq=48.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.0049823895 = product of:
          0.019929558 = sum of:
            0.019929558 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.019929558 = score(doc=1515,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  4. Reinisch, F.: Wer suchet - der findet? : oder Die Überwindung der sprachlichen Grenzen bei der Suche in Volltextdatenbanken (2000) 0.02
    0.015048114 = product of:
      0.037620284 = sum of:
        0.027655507 = weight(_text_:und in 4919) [ClassicSimilarity], result of:
          0.027655507 = score(doc=4919,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.33931053 = fieldWeight in 4919, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4919)
        0.009964779 = product of:
          0.039859116 = sum of:
            0.039859116 = weight(_text_:22 in 4919) [ClassicSimilarity], result of:
              0.039859116 = score(doc=4919,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.30952093 = fieldWeight in 4919, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=4919)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Date
    22. 7.2000 17:48:06
    Source
    Dokumente und Datenbanken in elektronischen Netzen: Tagungsberichte vom 6. und 7. Österreichischen Online-Informationstreffen bzw. vom 7. und 8. Österreichischen Dokumentartag, Schloß Seggau, Seggauberg bei Leibnitz, 26.-29. September 1995, Congresszentrum Igls bei Innsbruck, 21.-24. Oktober 1997. Hrsg.: E. Pipp
  5. Ludwig, L.: Lösung zum multilingualen Wissensmanagement semantischer Informationen (2010) 0.02
    0.015018123 = product of:
      0.03754531 = sum of:
        0.033097666 = weight(_text_:und in 4281) [ClassicSimilarity], result of:
          0.033097666 = score(doc=4281,freq=22.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.40608138 = fieldWeight in 4281, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4281)
        0.004447644 = product of:
          0.017790576 = sum of:
            0.017790576 = weight(_text_:m in 4281) [ClassicSimilarity], result of:
              0.017790576 = score(doc=4281,freq=4.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19441006 = fieldWeight in 4281, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4281)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Ein System zum mehrsprachigen Wissensmanagement semantischer Informationen wird vorgestellt: das Semantic Wiki Artificial Memory. Seine Grundidee wird kurz skizziert. Verschiedene aktuelle Probleme des technikgestützten Wissensmanagements werden erläutert und eine neuartige Kombination aus innovativen und bekannten Lösungen für diese Probleme veranschaulicht.
    Content
    "Bis vor wenigen Jahren waren kürzere physische Schriftstücke und Bücher die bevorzugten Mittel beim Gedankenverfassen und Gedankenaustausch. Dokumentenregister halfen beim Auffinden, Gliederungen unterstützten beim Zurechtfinden, ggf. assistierten Stichwortverzeichnisse beim Herauspicken. Diese inkrementelle Orientierung weicht zunehmend einer reinen Stichwortsuche in elektronischen Dokumentenkorpora, insbesondere dem WWW. Dokumentenregister, Gliederungen und Stichwortverzeichnisse werden von auf Wortindexen aufbauenden Suchmaschinen ausgehebelt. Das Suchergebnis verweist direkt auf einen einzelnen Textausschnitt (Snippet). Zurechtfinden im Dokument und Auffinden der richtigen Dokumente(nvorschläge) erfolgen nun, wenn überhaupt, in umgekehrter Reihenfolge und demgemäß unter Umständen sehr mühsam. Auf Anhieb erfolgreich ist eine solche Suche allerdings dann, wenn das Zieldokument auf das Stichwort völlig zugeschnitten erscheint, wenn also förmlich Textausschnitt, Kapitel und Dokument in eins fallen. Der Sog der Suchmaschinen zerschlägt die traditionelle sequentielle Dokumentengliederung, zerschlägt zuletzt das Dokument selbst in immer kleinere suchmaschinengerechte Einheiten. Auf solche Weise löst die Indexierung in Einzelwörter letztlich das Dokument selbst auf. Zurück bleibt allein eine Ansammlung indexgemäß geordneter Informationseinheiten: das Lexikon oder der Katalog. Im elektronisch gestützten Wissensmanagement nimmt nun das Wiki den Platz des Lexikons ein und der benamste Wikieintrag den Platz des Dokumentes."
    Imprint
    Frankfurt. / M. : DGI
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  6. Zimmermann, H.H.: Überlegungen zu einem multilingualen Thesaurus-Konzept (1995) 0.01
    0.014786306 = product of:
      0.036965765 = sum of:
        0.03193383 = weight(_text_:und in 2076) [ClassicSimilarity], result of:
          0.03193383 = score(doc=2076,freq=8.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.39180204 = fieldWeight in 2076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2076)
        0.0050319345 = product of:
          0.020127738 = sum of:
            0.020127738 = weight(_text_:m in 2076) [ClassicSimilarity], result of:
              0.020127738 = score(doc=2076,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.21994986 = fieldWeight in 2076, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2076)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Die Thesaurus-Thematik wird zunächst in den Zusammenhang der gesamten Erschließungs- und Retrievalmöglichkeiten eines Information-Retrieval-Systems gestellt. Auf dieser Grundlage wird ein multilinguales Thesaurus-Konzept entwickelt. Wichtige Elemente sind: die Ermöglichung des Zugangs anhand des Benutzervokabulars, eine systematische, transparente Bedeutungsdifferenzierung und eine Basis-Relationierung anhand einer einzigen ("ausgezeichneten") natürlichen Sprache.
    Imprint
    Frankfurt /M. : Indeks
    Source
    Konstruktion und Retrieval von Wissen: 3. Tagung der Deutschen ISKO-Sektion einschließlich der Vorträge des Workshops "Thesauri als terminologische Lexika", Weilburg, 27.-29.10.1993. Hrsg.: N. Meder u.a
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Luca, E.W. de; Dahlberg, I.: ¬Die Multilingual Lexical Linked Data Cloud : eine mögliche Zugangsoptimierung? (2014) 0.01
    0.01472267 = product of:
      0.036806677 = sum of:
        0.029333094 = weight(_text_:und in 1736) [ClassicSimilarity], result of:
          0.029333094 = score(doc=1736,freq=12.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.35989314 = fieldWeight in 1736, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1736)
        0.007473584 = product of:
          0.029894335 = sum of:
            0.029894335 = weight(_text_:22 in 1736) [ClassicSimilarity], result of:
              0.029894335 = score(doc=1736,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.23214069 = fieldWeight in 1736, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1736)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Sehr viele Informationen sind bereits im Web verfügbar oder können aus isolierten strukturierten Datenspeichern wie Informationssystemen und sozialen Netzwerken gewonnen werden. Datenintegration durch Nachbearbeitung oder durch Suchmechanismen (z. B. D2R) ist deshalb wichtig, um Informationen allgemein verwendbar zu machen. Semantische Technologien ermöglichen die Verwendung definierter Verbindungen (typisierter Links), durch die ihre Beziehungen zueinander festgehalten werden, was Vorteile für jede Anwendung bietet, die das in Daten enthaltene Wissen wieder verwenden kann. Um ­eine semantische Daten-Landkarte herzustellen, benötigen wir Wissen über die einzelnen Daten und ihre Beziehung zu anderen Daten. Dieser Beitrag stellt unsere Arbeit zur Benutzung von Lexical Linked Data (LLD) durch ein Meta-Modell vor, das alle Ressourcen enthält und zudem die Möglichkeit bietet sie unter unterschiedlichen Gesichtspunkten aufzufinden. Wir verbinden damit bestehende Arbeiten über Wissensgebiete (basierend auf der Information Coding Classification) mit der Multilingual Lexical Linked Data Cloud (basierend auf der RDF/OWL-Repräsentation von EuroWordNet und den ähnlichen integrierten lexikalischen Ressourcen MultiWordNet, MEMODATA und die Hamburg Metapher DB).
    Date
    22. 9.2014 19:00:13
    Source
    Information - Wissenschaft und Praxis. 65(2014) H.4/5, S.279-287
  8. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.01
    0.014257264 = product of:
      0.03564316 = sum of:
        0.03124022 = weight(_text_:und in 5978) [ClassicSimilarity], result of:
          0.03124022 = score(doc=5978,freq=10.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.38329202 = fieldWeight in 5978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5978)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 5978) [ClassicSimilarity], result of:
              0.017611772 = score(doc=5978,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 5978, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5978)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  9. Stiller, J.; Gäde, M.; Petras, V.: Multilingual access to digital libraries : the Europeana use case (2013) 0.01
    0.014257264 = product of:
      0.03564316 = sum of:
        0.03124022 = weight(_text_:und in 902) [ClassicSimilarity], result of:
          0.03124022 = score(doc=902,freq=10.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.38329202 = fieldWeight in 902, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=902)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 902) [ClassicSimilarity], result of:
              0.017611772 = score(doc=902,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 902, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=902)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Der Artikel fasst Komponenten für einen mehrsprachigen Zugang in digitalen Bibliotheken zusammen. Dabei wird der Fokus auf Bibliotheken für das digitale Kulturerbe gelegt. Eine Analyse aktueller (existierender) Informationssysteme im sogenannten GLAM-Bereich (Galerien, Bibliotheken, Archive, Museen) beschreibt angewandte Lösungen für die Recherche (Suchen und Blättern) von und die Interaktion mit mehrsprachigen Inhalten. Europeana, die europäische digitale Bibliothek für Kulturerbe, wird als Fallbeispiel hervorgehoben und es werden beispielhaft Interaktionsszenarios für die mehrsprachige Recherche vorgestellt. Die Herausforderungen in der Implementierung von Komponenten für den mehrsprachigen Informationszugang sowie Empfehlungen für den verbesserten Einsatz werden vorgestellt und diskutiert.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.2/3, S.86-95
  10. Voß, V.: Denken, verstehen, wissen : eine sprachvergleichende Untersuchung zu lexikalischen Bezeichnungen mentaler Tätigkeiten, Vorgänge und Zustände (2009) 0.01
    0.013233169 = product of:
      0.03308292 = sum of:
        0.029937962 = weight(_text_:und in 504) [ClassicSimilarity], result of:
          0.029937962 = score(doc=504,freq=18.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3673144 = fieldWeight in 504, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=504)
        0.0031449592 = product of:
          0.012579837 = sum of:
            0.012579837 = weight(_text_:m in 504) [ClassicSimilarity], result of:
              0.012579837 = score(doc=504,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.13746867 = fieldWeight in 504, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=504)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Diese onomasiologische Arbeit untersucht sprachvergleichend lexikalische Benennungen mentaler Tätigkeiten (wie z.B. denken), Vorgänge (verstehen) und Zustände (wissen). Dabei stehen Gemeinsamkeiten und Unterschiede der sprachlichen Erschließung dieser Bereiche im Blickpunkt. Bereits im deutschen Wortschatz zeigen sich verschiedene Motivationsverhältnisse: von relativ durchsichtigen Ausdrücken (begreifen, erwägen) über als komplex analysierbare, aber nicht eigentlich durchschaubare Ausdrücke (überlegen, verstehen) bis zu undurchsichtigen Simplizia (denken, wissen). Die Leitfrage lautet: Welche Bilder wiederholen sich durch verschiedene Sprachen und Kulturen? Gibt es bestimmte Bahnen, in denen sich die bezeichnungsmäßige Erschließung bewegt? Es zeigt sich, daß es sich um einen sehr heterogenen Bereich mit zahlreichen Bezeichnungsmustern handelt, von denen sich aber drei Muster - Bezeichnungen aus den Quellbereichen GREIFEN/NEHMEN, SEHEN und HÖREN - als stark verbreitet in verschiedenen Unterbereichen und in unterschiedlichen Sprachen herauskristallisieren.
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    18.00 Einzelne Sprachen und Literaturen allgemein
    Imprint
    Münster : Verl-Haus Monsenstein und Vannerdat
    Type
    m
  11. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2005) 0.01
    0.013060266 = product of:
      0.032650664 = sum of:
        0.030449195 = weight(_text_:und in 2183) [ClassicSimilarity], result of:
          0.030449195 = score(doc=2183,freq=38.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3735868 = fieldWeight in 2183, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2183)
        0.0022014715 = product of:
          0.008805886 = sum of:
            0.008805886 = weight(_text_:m in 2183) [ClassicSimilarity], result of:
              0.008805886 = score(doc=2183,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.09622806 = fieldWeight in 2183, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=2183)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Content
    "Unsere Sitzung fand diesmal am 13. 9. 2005 in Bozen im Rahmen der ODOK statt. Es waren daher auch viele interessierte Südtiroler und italienische Sacherschließungskollegen/-innen zu Gast. Eine der beiden Konferenzsprachen war Englisch, und so konnten wir Mehrsprachigkeit, das Thema unserer Sitzung und der beiden Gastvorträge, gleich selbst praktizieren. Patrice LANDRY, der Leiter der Sacherschließung an derSLB in Bern, der seit kurzem den Vorsitz der IFLA-Sektion "Classification and Indexing" und der Arbeitsgruppe "Guidelines for subject access for national bibliographic agencies" übernommen hatte, referierte über den jüngsten Stand des Projekts MACS (Multilingual Access to Subjects) und ließ uns am Nachmittag in seinem Workshop hinter die Kulissen der bereits mit echten Titeldaten operierenden Suchoberfläche blicken. Er zeigte die verschiedenen Recherche- und Editier-Funktionen im Management Linking System und brachte Beispiele für die kooperative Bearbeitung an einigen Datensätzen der bisher bereits miteinander verzahnten Normdateien SWD, LCSH und RAMEAU. Schließlich eröffnete er Ausblicke auf die künftige Einbindung weiterer Sprachen, etwa des Italienischen durch den Soggetario und auf die Anreicherung der Daten, etwa mit DDC-Notationen durch die Nähe zum DDB-Projekt "CrissCross". Federica PARADISI, die in der Sacherschließungsabteilung der BNC in Florenz sowohl für die italienische Übersetzung der DDC und deren Anwendung in ganz Italien als auch für die Überarbeitung des seit 1956 existierenden italienischen Wortschatzes für die verbale Erschließung und für dessen Aufbereitung zu einer modernen, bald auch elektronischen Normdatei zuständig ist und an der Erstellung der italienischen Nationalbibliografie mitwirkt, hat zuletzt gemeinsam mit Anna Lucarelli den Prototyp des "Nuovo Soggetario" erarbeitet und stellte dieses umfangreiche Projekt vor. Der von ihr skizzierte Zeitplan gibt Anlass zur Hoffnung, dass MACS für die Auffindung beschlagworteter Literatur in Bibliothekskatalogen schon in einem Jahr um einen sprachlichen Zugang reicher sein könnte. Beide Gastreferenten/-innen standen dem Auditorium im Anschluss an die Präsentationen für Fragen zur Verfügung, und die neuen fachlichen Kontakte vertieften sich in den Pausengesprächen noch mehr. Vor der Führung durch die Dewey-Ausstellung im Lichthof der UB Bozen demonstrierte Margit SANDNER zum Abschluss dieses multilingualen Sacherschließungsnachmittags mit einigen Beispielen in deutscherSprache die Suchfunktionen in den beiden Webversionen von DDC Deutsch MelvilSearch (für OPACs) und MelvilClass (für das Klassifizieren) und kündigte an, dass ab Oktober bis Jahresende kostenlose Testaccounts vergeben werden. Wer daran interessiert ist, diese deutschsprachigen Webtools bereits auszuprobieren, wendet sich am besten direkt an Herrn Dr. Lars Svensson in Der Deutschen Bibliothek in Frankfurt: svensson@dbf.ddb.de. Die ab Jänner 2006 gültigen Lizenzbedingungen für "Melvil" entnehmen Sie bitte: http//www.ddc-deutsch.de/licence-melvil.html Noch zwei aktuelle Hinweise: - Informationstag der Arbeitsstelle für Standardisierung (DDB) über aktuelle Tendenzen in Sachen Regelwerke f. Formal- und Sacherschließung, Formate, Normdateien und Datentausch am 15. November in Wien. - Aufsatz über die Zukunft der SWD von Esther Scheven (BD 2005, H. 6, S. 748-773), in dem u. a. auch auf unsere seinerzeitige KofSE-Studie: Schlagwort "Benutzerforschung" ... (VÖB-Mitt. 1997, H. 3-4, S. 28-49) rekurriert wird."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.3, S.83-84
  12. Kutschekmanesch, S.; Lutes, B.; Moelle, K.; Thiel, U.; Tzeras, K.: Automated multilingual indexing : a synthesis of rule-based and thesaurus-based methods (1998) 0.01
    0.012965846 = product of:
      0.032414615 = sum of:
        0.019958643 = weight(_text_:und in 4157) [ClassicSimilarity], result of:
          0.019958643 = score(doc=4157,freq=2.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.24487628 = fieldWeight in 4157, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4157)
        0.012455974 = product of:
          0.049823895 = sum of:
            0.049823895 = weight(_text_:22 in 4157) [ClassicSimilarity], result of:
              0.049823895 = score(doc=4157,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.38690117 = fieldWeight in 4157, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=4157)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Source
    Information und Märkte: 50. Deutscher Dokumentartag 1998, Kongreß der Deutschen Gesellschaft für Dokumentation e.V. (DGD), Rheinische Friedrich-Wilhelms-Universität Bonn, 22.-24. September 1998. Hrsg. von Marlies Ockenfeld u. Gerhard J. Mantwill
  13. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.01
    0.012938017 = product of:
      0.03234504 = sum of:
        0.0279421 = weight(_text_:und in 266) [ClassicSimilarity], result of:
          0.0279421 = score(doc=266,freq=8.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.34282678 = fieldWeight in 266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=266)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 266) [ClassicSimilarity], result of:
              0.017611772 = score(doc=266,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 266, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=266)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  14. Sprachtechnologie für die multilinguale Kommunikation : Textproduktion, Recherche, Übersetzung, Lokalisierung. Beiträge der GLDV-Frühjahrstagung 2003 (2003) 0.01
    0.012599309 = product of:
      0.031498272 = sum of:
        0.02395037 = weight(_text_:und in 4042) [ClassicSimilarity], result of:
          0.02395037 = score(doc=4042,freq=2.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.29385152 = fieldWeight in 4042, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4042)
        0.0075479024 = product of:
          0.03019161 = sum of:
            0.03019161 = weight(_text_:m in 4042) [ClassicSimilarity], result of:
              0.03019161 = score(doc=4042,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.3299248 = fieldWeight in 4042, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4042)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Series
    Sprachwissenschaft, Computerlinguistik und Neue Medien; 5
    Type
    m
  15. Panzer, M.: Semantische Integration heterogener und unterschiedlichsprachiger Wissensorganisationssysteme : CrissCross und jenseits (2008) 0.01
    0.012548297 = product of:
      0.03137074 = sum of:
        0.028225781 = weight(_text_:und in 4335) [ClassicSimilarity], result of:
          0.028225781 = score(doc=4335,freq=16.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.34630734 = fieldWeight in 4335, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4335)
        0.0031449592 = product of:
          0.012579837 = sum of:
            0.012579837 = weight(_text_:m in 4335) [ClassicSimilarity], result of:
              0.012579837 = score(doc=4335,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.13746867 = fieldWeight in 4335, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4335)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Klassische bibliothekarische Indexierungswerkzeuge werden bis heute nur selten fürs Retrieval nutzbar gemacht; die Wichtigkeit, verschiedene dieser Vokabularien zu harmonisieren und integriert zu verwenden, ist noch immer keine Selbstverständlichkeit. Im Rahmen des DFG-Projektes "CrissCross" wird, ausgehend von der deutschen Ausgabe der Dewey-Dezimalklassifikation, eine Verknüpfung zwischen der DDC und der Schlagwortnormdatei (SWD) aufgebaut, um eine verbale Suche über klassifikatorisch erschlossene Bestände zu ermöglichen. Als Verbreiterung der Basis des verbalen Zugriffs wird außerdem das Mapping der amerikanischen LCSH und des französischen RAMEAU angestrebt. Nach einer kurzen Vorstellung von CrissCross und der Abgrenzung gegenüber ähnlichen Unterfangen werden Rückwirkungen semantischer Integration auf die verknüpften Vokabulare diskutiert. Wie müssen und können sich z.B. Thesauri verändern, wenn sie mit anderen (strukturheterologen) Systemen verknüpft sind? Dabei liegt ein Schwerpunkt der Analyse auf dem semantischen Verhältnis üblicher Mappingrelationen zu den verknüpften Begriffen (besonders im Hinblick auf Polysemie). Außerdem wird der Mehrwert fürs Retrieval auf der Basis solcher Wissensorganisationssysteme, z.B. durch automatisierten Zugriff über Ontologien, diskutiert.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  16. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.01
    0.0122688925 = product of:
      0.030672232 = sum of:
        0.024444245 = weight(_text_:und in 4793) [ClassicSimilarity], result of:
          0.024444245 = score(doc=4793,freq=12.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.29991096 = fieldWeight in 4793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4793)
        0.006227987 = product of:
          0.024911948 = sum of:
            0.024911948 = weight(_text_:22 in 4793) [ClassicSimilarity], result of:
              0.024911948 = score(doc=4793,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19345059 = fieldWeight in 4793, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4793)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
    Source
    Wissensspeicher in digitalen Räumen: Nachhaltigkeit - Verfügbarkeit - semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008. Hrsg.: J. Sieglerschmidt u. H.P.Ohly
  17. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.01
    0.012091319 = product of:
      0.030228298 = sum of:
        0.025245909 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.025245909 = score(doc=1512,freq=20.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.0049823895 = product of:
          0.019929558 = sum of:
            0.019929558 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.019929558 = score(doc=1512,freq=2.0), product of:
                0.1287768 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.036774147 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  18. Hauer, M.: Zur Bedeutung normierter Terminologien in Zeiten moderner Sprach- und Information-Retrieval-Technologien (2013) 0.01
    0.011440604 = product of:
      0.02860151 = sum of:
        0.024198567 = weight(_text_:und in 995) [ClassicSimilarity], result of:
          0.024198567 = score(doc=995,freq=6.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.2968967 = fieldWeight in 995, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=995)
        0.004402943 = product of:
          0.017611772 = sum of:
            0.017611772 = weight(_text_:m in 995) [ClassicSimilarity], result of:
              0.017611772 = score(doc=995,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.19245613 = fieldWeight in 995, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=995)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Wie Übersetzer sollten Bibliothekare den Dialog zwischen Autoren, die bereits Werke verfasst haben, und zumeist solchen, die an neuen Werken arbeiten, vermitteln. Sie bedienen sich einer so stark reduzierten "Übersetzungssprache", dass der Dialog oft nicht mehr ausreichend gelingt. Seit zehn Jahren erweitern deshalb im deutschen und amerikanischen Bereich Bibliotheken zunehmend den Terminologieraum ihrer Kataloge durch die wichtigsten, originalsprachlichen Fachbegriffe der Autoren. Dadurch ergeben sich in der Recherche "Docking-Stellen" für terminologische Netze, die zur Query-Expansion statt Dokument-Reduktion genutzt werden können. Die sich daraus ergebende Optimierung des Recalls kann im Dialog mit einem modernen Retrieval-System mittels Facettierungstechnik hinsichtlich Precision verfeinert werden, wobei die ursprünglich oft schwer zugängliche Fachterminologie des Bibliothekars dann auch ohne ungeliebtes Vortraining entschlüsselt werden kann.
  19. Franz, G.: ¬Die vielen Wikipedias : Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt (2011) 0.01
    0.01110475 = product of:
      0.027761877 = sum of:
        0.025245909 = weight(_text_:und in 568) [ClassicSimilarity], result of:
          0.025245909 = score(doc=568,freq=20.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.3097467 = fieldWeight in 568, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=568)
        0.0025159672 = product of:
          0.010063869 = sum of:
            0.010063869 = weight(_text_:m in 568) [ClassicSimilarity], result of:
              0.010063869 = score(doc=568,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.10997493 = fieldWeight in 568, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.03125 = fieldNorm(doc=568)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Abstract
    Mittlerweile sind mehr als zehn Jahre seit der Gründung der Wikipedia vergangen. Die kollaborativ zusammengestellte Online-Enzyklopädie blickt auf eine beispiellose Erfolgsgeschichte zurück und hat inzwischen sogar viele klassische Lexika das Fürchten gelehrt. Aber: Es gibt gar nicht die eine Wikipedia! Stattdessen handelt es sich bei dem Projekt um hunderte verschiedene, weitgehend voneinander unabhängig agierende Sprachversionen. Sie sind nicht nur unterschiedlich groß, sondern bestehen auch aus differierenden Inhalten. Artikel zu ein und demselben Stichwort können von Wikipedia zu Wikipedia erheblich voneinander abweichen. Von der Gemeinschaft bereits erarbeitetes Wissen steht daher nicht allen Nutzern in der Welt gleichermaßen zur Verfügung. Mit einem forcierten interlingualen Wissensaustausch ließe es sich aber für eine gegenseitige Bereicherung der Wikipedias nutzen. Das Buch gibt zunächst einen allgemeinen Überblick zur Wikipedia, geht auf ihre Entstehung, ihre Funktionsweise und auf die beteiligten Akteure ein. Auch das "Erfolgsgeheimnis" des Nachschlagewerks sowie aktuelle Herausforderungen werden herausgearbeitet. Die anschließende Untersuchung zeigt, wie sehr verschieden große Wikipedias voneinander differieren und wo die Unterschiede im Einzelnen liegen. Danach folgt eine Vorstellung von Ansätzen, Werkzeugen und Schwierigkeiten des interlingualen Wissensaustauschs zwischen den Sprachversionen. Der letzte Teil entwirft schließlich ein detailliertes Konzept für einen neuartigen Wissensaustausch, das aus mehreren ineinandergreifenden Komponenten rund um den Kern einer speziellen Übersetzungsoberfläche besteht. Das Konzept lässt sich auch als Blaupause für Lokalisierungsbemühungen multisprachlicher Wikis nutzen, wie sie international operierende Unternehmungen zunehmend einsetzen. Die Ausarbeitung, auf der dieses Buch basiert, wurde mit dem FHP-Preis 2011 für die beste Abschlussarbeit im Studiengang "Information und Dokumentation" der FH Potsdam ausgezeichnet.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    05.20 (Kommunikation und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    05.20 (Kommunikation und Gesellschaft)
    Type
    m
  20. Muraszkiewicz, M.; Rybinski, H.; Struk, W.: Software problems of merging multilingual thesauri (1996) 0.01
    0.010499424 = product of:
      0.026248561 = sum of:
        0.019958643 = weight(_text_:und in 1130) [ClassicSimilarity], result of:
          0.019958643 = score(doc=1130,freq=2.0), product of:
            0.08150501 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.036774147 = queryNorm
            0.24487628 = fieldWeight in 1130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1130)
        0.0062899184 = product of:
          0.025159674 = sum of:
            0.025159674 = weight(_text_:m in 1130) [ClassicSimilarity], result of:
              0.025159674 = score(doc=1130,freq=2.0), product of:
                0.09151058 = queryWeight, product of:
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.036774147 = queryNorm
                0.27493733 = fieldWeight in 1130, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  2.4884486 = idf(docFreq=9980, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1130)
          0.25 = coord(1/4)
      0.4 = coord(2/5)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Years

Languages

  • e 88
  • d 47
  • f 4
  • m 2
  • a 1
  • ro 1
  • More… Less…

Types

  • a 121
  • el 13
  • m 6
  • s 3
  • n 2
  • p 2
  • r 2
  • x 2
  • More… Less…