Search (67 results, page 1 of 4)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Imhof, A.: RSWK/SWD und Faceted Browsing : neue Möglichkeiten einer inhaltlich-intuitiven Navigation (2006) 0.04
    0.035119295 = product of:
      0.14047718 = sum of:
        0.010816624 = product of:
          0.043266498 = sum of:
            0.043266498 = weight(_text_:recherche in 5946) [ClassicSimilarity], result of:
              0.043266498 = score(doc=5946,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.23954318 = fieldWeight in 5946, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5946)
          0.25 = coord(1/4)
        0.12966056 = weight(_text_:literaturrecherche in 5946) [ClassicSimilarity], result of:
          0.12966056 = score(doc=5946,freq=4.0), product of:
            0.262929 = queryWeight, product of:
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.033323385 = queryNorm
            0.49313906 = fieldWeight in 5946, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.890225 = idf(docFreq=44, maxDocs=44218)
              0.03125 = fieldNorm(doc=5946)
      0.25 = coord(2/8)
    
    Abstract
    Das deutschsprachige Bibliothekswesen verfügt mit den "Regeln für den Schlagwortkatalog" (RSWK) unter Verwendung der "Schlagwortnormdatei" (SWD) über ein Instrumentarium, welches zusammen mit einem "Faceted Browsing" das bisher bestehende Angebot für ein Information Retrieval optimal ergänzen kann. Die Verbindung zwischen Standardvokabular (SWD) und Kettenbildung (RSWK) einerseits und eine nach Facetten-Eigenschaften gegliederte Navigation andererseits unterstützt bestmöglich eine inhaltlich bezogene Recherche. Die Stärken und Schwächen der RSWK/SWD werden erörtert und auch Klassifikationen (DDC und RVK) als mögliche Facetten diskutiert.
    Content
    "Die kontinuierliche Optimierung der Informationsversorgung ist ein von allen Seiten unterstütztes Ziel in Forschung und Lehre. Neben der Verfügbarkeit an Literatur ist das Organisieren derselben, aber auch das Suchen, Finden und Erhalten von Informationen angesprochen. Die Anstrengungen der vergangenen Jahre für eine verbesserte Literaturrecherche haben in der Bibliothekswelt bereits zu einigen Erfolgen geführt. Inzwischen ist es selbstverständlich geworden, über das Internet in deutschen und internationalen Online-Katalogen nach relevanter Literatur zu suchen. Weiterführende Dienste wie Dokumentenlieferung oder direkte Verlinkung zu elektronischen Volltexten sind dabei nahtlos eingebunden. Die Weiterentwicklung bibliothekarischer Dienstleistungen werden ohne Unterbrechung vorangetrieben, zumal freie Suchmaschinen wie Google im "Information Retrieval", insbesondere durch Google-Scholar und Google-Buchsuche, einen beträchtlichen Konkurrenzdruck auf die Bibliotheken ausüben. Dabei drängt sich insgesamt der Eindruck auf, dass die Bibliotheken gegenüber den freien Suchmaschinen deren Entwicklungen hinterherlaufen. Ohne es als solches wahrzunehmen, verfügen die Bibliotheken im deutschsprachigen Raum jedoch über ein Instrument, mit dem sie im Wettbewerb mit Google um die Nutzerinnen wieder ihre Vorzüge herausstellen können. Es existiert längst ein Konzept, mit dessen Hilfe die Literaturrecherche inhaltlich-intuitiv gestaltet und damit ein Vorteil der Bibliotheksrecherche gegenüber kommerziellen Suchmaschinen herausgearbeitet werden kann. Das Konzept heißt "Regeln für den Schlagwortkatalog" (RSWK)' und bietet im Zusammenhang mit dem mittlerweile nicht mehr ganz so neuen Navigationskonzept "Faceted Browsing" ungeahnte Möglichkeiten eines intuitiven Recherschewerkzeuges, das Literatur gezielt inhaltlich entdecken lässt.
  2. Hannech, A.: Système de recherche d'information étendue basé sur une projection multi-espaces (2018) 0.01
    0.006652878 = product of:
      0.026611513 = sum of:
        0.023574285 = product of:
          0.09429714 = sum of:
            0.09429714 = weight(_text_:recherche in 4472) [ClassicSimilarity], result of:
              0.09429714 = score(doc=4472,freq=38.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.52207226 = fieldWeight in 4472, product of:
                  6.164414 = tf(freq=38.0), with freq of:
                    38.0 = termFreq=38.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.25 = coord(1/4)
        0.0030372278 = product of:
          0.009111683 = sum of:
            0.009111683 = weight(_text_:29 in 4472) [ClassicSimilarity], result of:
              0.009111683 = score(doc=4472,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.07773064 = fieldWeight in 4472, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.015625 = fieldNorm(doc=4472)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    Depuis son apparition au début des années 90, le World Wide Web (WWW ou Web) a offert un accès universel aux connaissances et le monde de l'information a été principalement témoin d'une grande révolution (la révolution numérique). Il est devenu rapidement très populaire, ce qui a fait de lui la plus grande et vaste base de données et de connaissances existantes grâce à la quantité et la diversité des données qu'il contient. Cependant, l'augmentation et l'évolution considérables de ces données soulèvent d'importants problèmes pour les utilisateurs notamment pour l'accès aux documents les plus pertinents à leurs requêtes de recherche. Afin de faire face à cette explosion exponentielle du volume de données et faciliter leur accès par les utilisateurs, différents modèles sont proposés par les systèmes de recherche d'information (SRIs) pour la représentation et la recherche des documents web. Les SRIs traditionnels utilisent, pour indexer et récupérer ces documents, des mots-clés simples qui ne sont pas sémantiquement liés. Cela engendre des limites en termes de la pertinence et de la facilité d'exploration des résultats. Pour surmonter ces limites, les techniques existantes enrichissent les documents en intégrant des mots-clés externes provenant de différentes sources. Cependant, ces systèmes souffrent encore de limitations qui sont liées aux techniques d'exploitation de ces sources d'enrichissement. Lorsque les différentes sources sont utilisées de telle sorte qu'elles ne peuvent être distinguées par le système, cela limite la flexibilité des modèles d'exploration qui peuvent être appliqués aux résultats de recherche retournés par ce système. Les utilisateurs se sentent alors perdus devant ces résultats, et se retrouvent dans l'obligation de les filtrer manuellement pour sélectionner l'information pertinente. S'ils veulent aller plus loin, ils doivent reformuler et cibler encore plus leurs requêtes de recherche jusqu'à parvenir aux documents qui répondent le mieux à leurs attentes. De cette façon, même si les systèmes parviennent à retrouver davantage des résultats pertinents, leur présentation reste problématique. Afin de cibler la recherche à des besoins d'information plus spécifiques de l'utilisateur et améliorer la pertinence et l'exploration de ses résultats de recherche, les SRIs avancés adoptent différentes techniques de personnalisation de données qui supposent que la recherche actuelle d'un utilisateur est directement liée à son profil et/ou à ses expériences de navigation/recherche antérieures. Cependant, cette hypothèse ne tient pas dans tous les cas, les besoins de l'utilisateur évoluent au fil du temps et peuvent s'éloigner de ses intérêts antérieurs stockés dans son profil.
    Dans d'autres cas, le profil de l'utilisateur peut être mal exploité pour extraire ou inférer ses nouveaux besoins en information. Ce problème est beaucoup plus accentué avec les requêtes ambigües. Lorsque plusieurs centres d'intérêt auxquels est liée une requête ambiguë sont identifiés dans le profil de l'utilisateur, le système se voit incapable de sélectionner les données pertinentes depuis ce profil pour répondre à la requête. Ceci a un impact direct sur la qualité des résultats fournis à cet utilisateur. Afin de remédier à quelques-unes de ces limitations, nous nous sommes intéressés dans ce cadre de cette thèse de recherche au développement de techniques destinées principalement à l'amélioration de la pertinence des résultats des SRIs actuels et à faciliter l'exploration de grandes collections de documents. Pour ce faire, nous proposons une solution basée sur un nouveau concept d'indexation et de recherche d'information appelé la projection multi-espaces. Cette proposition repose sur l'exploitation de différentes catégories d'information sémantiques et sociales qui permettent d'enrichir l'univers de représentation des documents et des requêtes de recherche en plusieurs dimensions d'interprétations. L'originalité de cette représentation est de pouvoir distinguer entre les différentes interprétations utilisées pour la description et la recherche des documents. Ceci donne une meilleure visibilité sur les résultats retournés et aide à apporter une meilleure flexibilité de recherche et d'exploration, en donnant à l'utilisateur la possibilité de naviguer une ou plusieurs vues de données qui l'intéressent le plus. En outre, les univers multidimensionnels de représentation proposés pour la description des documents et l'interprétation des requêtes de recherche aident à améliorer la pertinence des résultats de l'utilisateur en offrant une diversité de recherche/exploration qui aide à répondre à ses différents besoins et à ceux des autres différents utilisateurs. Cette étude exploite différents aspects liés à la recherche personnalisée et vise à résoudre les problèmes engendrés par l'évolution des besoins en information de l'utilisateur. Ainsi, lorsque le profil de cet utilisateur est utilisé par notre système, une technique est proposée et employée pour identifier les intérêts les plus représentatifs de ses besoins actuels dans son profil. Cette technique se base sur la combinaison de trois facteurs influents, notamment le facteur contextuel, fréquentiel et temporel des données. La capacité des utilisateurs à interagir, à échanger des idées et d'opinions, et à former des réseaux sociaux sur le Web, a amené les systèmes à s'intéresser aux types d'interactions de ces utilisateurs, au niveau d'interaction entre eux ainsi qu'à leurs rôles sociaux dans le système. Ces informations sociales sont abordées et intégrées dans ce travail de recherche. L'impact et la manière de leur intégration dans le processus de RI sont étudiés pour améliorer la pertinence des résultats.
    Date
    29. 9.2018 18:57:38
  3. Gillitzer, B.: Yewno (2017) 0.01
    0.005329207 = product of:
      0.021316828 = sum of:
        0.015297017 = product of:
          0.06118807 = sum of:
            0.06118807 = weight(_text_:recherche in 3447) [ClassicSimilarity], result of:
              0.06118807 = score(doc=3447,freq=4.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.33876523 = fieldWeight in 3447, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.25 = coord(1/4)
        0.0060198116 = product of:
          0.018059434 = sum of:
            0.018059434 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.018059434 = score(doc=3447,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.25 = coord(2/8)
    
    Abstract
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  4. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.00
    0.0030421754 = product of:
      0.024337403 = sum of:
        0.024337403 = product of:
          0.097349614 = sum of:
            0.097349614 = weight(_text_:recherche in 2133) [ClassicSimilarity], result of:
              0.097349614 = score(doc=2133,freq=18.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.53897214 = fieldWeight in 2133, product of:
                  4.2426405 = tf(freq=18.0), with freq of:
                    18.0 = termFreq=18.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=2133)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
  5. Zarri, G.P.: Utilisation de structures conceptuelles complexes pour représenter le "contenu sémantique" de textes narratifs (1999) 0.00
    0.002704156 = product of:
      0.021633249 = sum of:
        0.021633249 = product of:
          0.086532995 = sum of:
            0.086532995 = weight(_text_:recherche in 6168) [ClassicSimilarity], result of:
              0.086532995 = score(doc=6168,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.47908637 = fieldWeight in 6168, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0625 = fieldNorm(doc=6168)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Source
    Organisation des connaissances en vue de leur intégration dans les systèmes de représentation et de recherche d'information. Ed.: J. Maniez, et al
  6. Boyack, K.W.; Wylie,B.N.; Davidson, G.S.: Information Visualization, Human-Computer Interaction, and Cognitive Psychology : Domain Visualizations (2002) 0.00
    0.0026604063 = product of:
      0.02128325 = sum of:
        0.02128325 = product of:
          0.06384975 = sum of:
            0.06384975 = weight(_text_:22 in 1352) [ClassicSimilarity], result of:
              0.06384975 = score(doc=1352,freq=4.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.54716086 = fieldWeight in 1352, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1352)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    22. 2.2003 17:25:39
    22. 2.2003 18:17:40
  7. Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983) 0.00
    0.0026336676 = product of:
      0.02106934 = sum of:
        0.02106934 = product of:
          0.06320802 = sum of:
            0.06320802 = weight(_text_:22 in 2134) [ClassicSimilarity], result of:
              0.06320802 = score(doc=2134,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.5416616 = fieldWeight in 2134, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=2134)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    30. 3.2001 13:32:22
  8. Looking for information : a survey on research on information seeking, needs, and behavior (2016) 0.00
    0.002390159 = product of:
      0.019121272 = sum of:
        0.019121272 = product of:
          0.07648509 = sum of:
            0.07648509 = weight(_text_:recherche in 3803) [ClassicSimilarity], result of:
              0.07648509 = score(doc=3803,freq=4.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.42345655 = fieldWeight in 3803, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3803)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    RSWK
    Recherche / Strategie
    Subject
    Recherche / Strategie
  9. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.00
    0.0023661365 = product of:
      0.018929092 = sum of:
        0.018929092 = product of:
          0.07571637 = sum of:
            0.07571637 = weight(_text_:recherche in 4884) [ClassicSimilarity], result of:
              0.07571637 = score(doc=4884,freq=8.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.41920057 = fieldWeight in 4884, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.02734375 = fieldNorm(doc=4884)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
  10. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.00
    0.002341868 = product of:
      0.018734943 = sum of:
        0.018734943 = product of:
          0.07493977 = sum of:
            0.07493977 = weight(_text_:recherche in 6043) [ClassicSimilarity], result of:
              0.07493977 = score(doc=6043,freq=6.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.414901 = fieldWeight in 6043, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.03125 = fieldNorm(doc=6043)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und für Recherchezwecke bereitstellt. Die DIZ-Pressedatenbank (www.medienport.de) ermöglicht die browserbasierte Recherche für Redakteure und externe Kunden im Intra- und Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZ-Pressedatenbank enthält z. Zt. 7,8 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 durch Dokumentare inhaltlich erschlossen werden. Die Informationserschließung erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, die untereinander zum "DIZ-Wissensnetz" verlinkt sind. DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Qualitätssicherung der Dossiers auf. Im Zuge der Medienkrise mussten sich DIZ der Herausforderung stellen, bei sinkenden Lektoratskapazitäten die Qualität der Informationserschließung im Input zu erhalten. Auf der Outputseite gilt es, eine anspruchsvolle Zielgruppe - u.a. die Redakteure der Süddeutschen Zeitung - passgenau und zeitnah mit den Informationen zu versorgen, die sie für ihre tägliche Arbeit benötigt. Bezogen auf die Ausgangssituation in der Dokumentation der Süddeutschen Zeitung identifizierte DIZ drei Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: - (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) - Visualisierung des Wissensnetzes - Neue Retrievalmöglichkeiten (Ähnlichkeitssuche, Clustering) Im Bereich "Visualisierung" setzt DIZ auf den Net-Navigator von intelligent views, eine interaktive Visualisierung allgemeiner Graphen, basierend auf einem physikalischen Modell. In den Bereichen automatische Klassifizierung, Ähnlichkeitssuche und Clustering hat DIZ sich für das Produkt nextBot der Firma Brainbot entschieden.
  11. Ross, J.: ¬A new way of information retrieval : 3-D indexing and concept mapping (2000) 0.00
    0.002277921 = product of:
      0.018223368 = sum of:
        0.018223368 = product of:
          0.0546701 = sum of:
            0.0546701 = weight(_text_:29 in 6171) [ClassicSimilarity], result of:
              0.0546701 = score(doc=6171,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46638384 = fieldWeight in 6171, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=6171)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    25. 2.1997 10:29:16
  12. Shiri, A.A.; Revie, C.; Chowdhury, G.: Thesaurus-enhanced search interfaces (2002) 0.00
    0.002277921 = product of:
      0.018223368 = sum of:
        0.018223368 = product of:
          0.0546701 = sum of:
            0.0546701 = weight(_text_:29 in 3807) [ClassicSimilarity], result of:
              0.0546701 = score(doc=3807,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46638384 = fieldWeight in 3807, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=3807)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    18. 5.2002 17:29:00
  13. Shiri, A.A.; Revie, C.: ¬The effects of topic complexity and familiarity on cognitive and physical moves in a thesaurus-enhanced search environment (2003) 0.00
    0.002277921 = product of:
      0.018223368 = sum of:
        0.018223368 = product of:
          0.0546701 = sum of:
            0.0546701 = weight(_text_:29 in 4695) [ClassicSimilarity], result of:
              0.0546701 = score(doc=4695,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.46638384 = fieldWeight in 4695, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4695)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Journal of information science. 29(2003) no.6, S.517-
  14. ALEPH 500 mit multilingualem Thesaurus (2003) 0.00
    0.002028117 = product of:
      0.016224936 = sum of:
        0.016224936 = product of:
          0.06489974 = sum of:
            0.06489974 = weight(_text_:recherche in 1639) [ClassicSimilarity], result of:
              0.06489974 = score(doc=1639,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.35931477 = fieldWeight in 1639, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1639)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  15. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.00
    0.002028117 = product of:
      0.016224936 = sum of:
        0.016224936 = product of:
          0.06489974 = sum of:
            0.06489974 = weight(_text_:recherche in 1640) [ClassicSimilarity], result of:
              0.06489974 = score(doc=1640,freq=2.0), product of:
                0.18062086 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.033323385 = queryNorm
                0.35931477 = fieldWeight in 1640, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.046875 = fieldNorm(doc=1640)
          0.25 = coord(1/4)
      0.125 = coord(1/8)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  16. Stojanovic, N.: On the query refinement in the ontology-based searching for information (2005) 0.00
    0.0018982673 = product of:
      0.015186138 = sum of:
        0.015186138 = product of:
          0.045558415 = sum of:
            0.045558415 = weight(_text_:29 in 2907) [ClassicSimilarity], result of:
              0.045558415 = score(doc=2907,freq=2.0), product of:
                0.11722125 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38865322 = fieldWeight in 2907, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2907)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    5. 4.1996 15:29:15
  17. Rekabsaz, N. et al.: Toward optimized multimodal concept indexing (2016) 0.00
    0.0018811913 = product of:
      0.01504953 = sum of:
        0.01504953 = product of:
          0.04514859 = sum of:
            0.04514859 = weight(_text_:22 in 2751) [ClassicSimilarity], result of:
              0.04514859 = score(doc=2751,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38690117 = fieldWeight in 2751, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2751)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    1. 2.2016 18:25:22
  18. Kozikowski, P. et al.: Support of part-whole relations in query answering (2016) 0.00
    0.0018811913 = product of:
      0.01504953 = sum of:
        0.01504953 = product of:
          0.04514859 = sum of:
            0.04514859 = weight(_text_:22 in 2754) [ClassicSimilarity], result of:
              0.04514859 = score(doc=2754,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38690117 = fieldWeight in 2754, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=2754)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Date
    1. 2.2016 18:25:22
  19. Marx, E. et al.: Exploring term networks for semantic search over RDF knowledge graphs (2016) 0.00
    0.0018811913 = product of:
      0.01504953 = sum of:
        0.01504953 = product of:
          0.04514859 = sum of:
            0.04514859 = weight(_text_:22 in 3279) [ClassicSimilarity], result of:
              0.04514859 = score(doc=3279,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38690117 = fieldWeight in 3279, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3279)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou
  20. Kopácsi, S. et al.: Development of a classification server to support metadata harmonization in a long term preservation system (2016) 0.00
    0.0018811913 = product of:
      0.01504953 = sum of:
        0.01504953 = product of:
          0.04514859 = sum of:
            0.04514859 = weight(_text_:22 in 3280) [ClassicSimilarity], result of:
              0.04514859 = score(doc=3280,freq=2.0), product of:
                0.11669282 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.033323385 = queryNorm
                0.38690117 = fieldWeight in 3280, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=3280)
          0.33333334 = coord(1/3)
      0.125 = coord(1/8)
    
    Source
    Metadata and semantics research: 10th International Conference, MTSR 2016, Göttingen, Germany, November 22-25, 2016, Proceedings. Eds.: E. Garoufallou

Authors

Years

Languages

  • e 50
  • d 15
  • f 2
  • More… Less…

Types

  • a 60
  • el 6
  • m 3
  • s 1
  • x 1
  • More… Less…