Search (102 results, page 1 of 6)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Michel, D.: Taxonomy of Subject Relationships (1997) 0.05
    0.04858075 = product of:
      0.14574225 = sum of:
        0.022569306 = weight(_text_:und in 5346) [ClassicSimilarity], result of:
          0.022569306 = score(doc=5346,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 5346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5346)
        0.123172946 = weight(_text_:theorie in 5346) [ClassicSimilarity], result of:
          0.123172946 = score(doc=5346,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.5720649 = fieldWeight in 5346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.078125 = fieldNorm(doc=5346)
      0.33333334 = coord(2/6)
    
    Theme
    Theorie verbaler Dokumentationssprachen
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Weichselgartner, E.: ZPID bindet Thesaurus in Retrievaloberfläche ein (2006) 0.05
    0.04854873 = product of:
      0.09709746 = sum of:
        0.025233248 = weight(_text_:und in 5962) [ClassicSimilarity], result of:
          0.025233248 = score(doc=5962,freq=10.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.27378 = fieldWeight in 5962, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.034387592 = weight(_text_:der in 5962) [ClassicSimilarity], result of:
          0.034387592 = score(doc=5962,freq=18.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.37019804 = fieldWeight in 5962, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5962)
        0.037476614 = product of:
          0.11242984 = sum of:
            0.11242984 = weight(_text_:psychologie in 5962) [ClassicSimilarity], result of:
              0.11242984 = score(doc=5962,freq=4.0), product of:
                0.24463055 = queryWeight, product of:
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.04158434 = queryNorm
                0.45959038 = fieldWeight in 5962, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.8827567 = idf(docFreq=334, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5962)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Seit 3. Juli 2006 stellt das ZPID eine verbesserte Suchoberfläche für die Recherche in der bibliographischen Psychologie-Datenbank PSYNDEX zur Verfügung. Hauptmerkmal der neuen Version 1.1 des 'ZPID-Retrieval für PSYNDEX' ist die Einbindung von 'PSYNDEX Terms', dem kontrollierten Wortschatz der psychologischen Fachsprache. PSYNDEX Terms basiert auf dem 'Thesaurus of Psychological Index Terms' der American Psychological Association (APA) und enthält im Moment über 5.400 Deskriptoren. Zu jedem Deskriptor werden ggf. Oberbegriffe, Unterbegriffe und verwandte Begriffe angezeigt. Wer die Suchoberfläche nutzt, kann entweder im Thesaurus blättern oder gezielt nach Thesaurusbegriffen suchen. Kommt der eigene frei gewählte Suchbegriff nicht im Thesaurus vor, macht das System selbsttätig Vorschläge für passende Thesaurusbegriffe. DerThesaurus ist komplett zweisprachig (deutsch/englisch) implementiert, sodass er auch als Übersetzungshilfe dient. Weitere Verbesserungen der Suchoberfläche betreffen die Darstellbarkeit in unterschiedlichen Web-Browsern mit dem Ziel der Barrierefreiheit, die Erweiterung der OnlineHilfe mit Beispielen für erfolgreiche Suchstrategien, die Möglichkeit, zu speziellen Themen vertiefte Informationen abzurufen (den Anfang machen psychologische Behandlungsprogramme) und die Bereitstellung eines Export-Filters für EndNote. Zielgruppe des ZPID-Retrieval sind Einzelpersonen, die keinen institutionellen PSYNDEX-Zugang, z.B. am Campus einer Universität, nutzen können. Sie können das kostenpflichtige Retrieval direkt online erwerben und werden binnen weniger Minuten freigeschaltet. Kunden mit existierendem Vertrag kommen automatisch in den Genuss der verbesserten Suchoberfläche.
    Field
    Psychologie
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.5, S.244
  3. Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000) 0.04
    0.042275198 = product of:
      0.084550396 = sum of:
        0.040687393 = weight(_text_:und in 1404) [ClassicSimilarity], result of:
          0.040687393 = score(doc=1404,freq=26.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.441457 = fieldWeight in 1404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.034387592 = weight(_text_:der in 1404) [ClassicSimilarity], result of:
          0.034387592 = score(doc=1404,freq=18.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.37019804 = fieldWeight in 1404, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1404)
        0.009475412 = product of:
          0.028426234 = sum of:
            0.028426234 = weight(_text_:29 in 1404) [ClassicSimilarity], result of:
              0.028426234 = score(doc=1404,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.19432661 = fieldWeight in 1404, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1404)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
    Content
    Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
    Footnote
    Rez.in: KO 29(2002) no.2, S.103-104 (G.J.A. Riesthuis)
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.04
    0.041969813 = product of:
      0.08393963 = sum of:
        0.038698297 = weight(_text_:und in 1852) [ClassicSimilarity], result of:
          0.038698297 = score(doc=1852,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41987535 = fieldWeight in 1852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.032095086 = weight(_text_:der in 1852) [ClassicSimilarity], result of:
          0.032095086 = score(doc=1852,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34551817 = fieldWeight in 1852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1852)
        0.013146243 = product of:
          0.03943873 = sum of:
            0.03943873 = weight(_text_:22 in 1852) [ClassicSimilarity], result of:
              0.03943873 = score(doc=1852,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.2708308 = fieldWeight in 1852, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1852)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:58
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
  5. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005) 0.04
    0.041969813 = product of:
      0.08393963 = sum of:
        0.038698297 = weight(_text_:und in 4324) [ClassicSimilarity], result of:
          0.038698297 = score(doc=4324,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.41987535 = fieldWeight in 4324, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.032095086 = weight(_text_:der in 4324) [ClassicSimilarity], result of:
          0.032095086 = score(doc=4324,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34551817 = fieldWeight in 4324, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4324)
        0.013146243 = product of:
          0.03943873 = sum of:
            0.03943873 = weight(_text_:22 in 4324) [ClassicSimilarity], result of:
              0.03943873 = score(doc=4324,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.2708308 = fieldWeight in 4324, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4324)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Date
    11. 2.2011 18:22:25
  6. Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018) 0.04
    0.03861469 = product of:
      0.07722938 = sum of:
        0.03742696 = weight(_text_:und in 4599) [ClassicSimilarity], result of:
          0.03742696 = score(doc=4599,freq=22.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.40608138 = fieldWeight in 4599, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.030327007 = weight(_text_:der in 4599) [ClassicSimilarity], result of:
          0.030327007 = score(doc=4599,freq=14.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.326484 = fieldWeight in 4599, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4599)
        0.009475412 = product of:
          0.028426234 = sum of:
            0.028426234 = weight(_text_:29 in 4599) [ClassicSimilarity], result of:
              0.028426234 = score(doc=4599,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.19432661 = fieldWeight in 4599, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4599)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
    Date
    13.12.2018 13:29:07
  7. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.04
    0.036993235 = product of:
      0.07398647 = sum of:
        0.022569306 = weight(_text_:und in 566) [ClassicSimilarity], result of:
          0.022569306 = score(doc=566,freq=8.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.24487628 = fieldWeight in 566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.03801691 = weight(_text_:der in 566) [ClassicSimilarity], result of:
          0.03801691 = score(doc=566,freq=22.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.40926933 = fieldWeight in 566, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=566)
        0.013400255 = product of:
          0.040200762 = sum of:
            0.040200762 = weight(_text_:29 in 566) [ClassicSimilarity], result of:
              0.040200762 = score(doc=566,freq=4.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.2748193 = fieldWeight in 566, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=566)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Date
    25.10.2007 9:51:29
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
    Source
    Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
  8. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.04
    0.036185175 = product of:
      0.07237035 = sum of:
        0.031272948 = weight(_text_:und in 2245) [ClassicSimilarity], result of:
          0.031272948 = score(doc=2245,freq=6.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.33931053 = fieldWeight in 2245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2245)
        0.025936747 = weight(_text_:der in 2245) [ClassicSimilarity], result of:
          0.025936747 = score(doc=2245,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.27922085 = fieldWeight in 2245, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2245)
        0.015160657 = product of:
          0.045481972 = sum of:
            0.045481972 = weight(_text_:29 in 2245) [ClassicSimilarity], result of:
              0.045481972 = score(doc=2245,freq=2.0), product of:
                0.1462807 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.04158434 = queryNorm
                0.31092256 = fieldWeight in 2245, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2245)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Dieser Artikel adressiert einen Randbereich des Wissensmanagements: die Schnittstelle zwischen Unternehmens-externen Informationen im Internet und den Leistungsprozessen eines Unternehmens. Diese Schnittstelle ist besonders für Unternehmen von Interesse, deren Leistungsprozesse von externen Informationen abhängen und die auf diese Prozesse angewiesen sind. Wir zeigen an zwei Fallbeispielen, dass die inhaltliche Filterung von Informationen beim Eintritt ins Unternehmen ein wichtiges Werkzeug darstellt, um daran anschließende Wissens- und Informationsmanagementprozesse effizient zu gestalten.
    Date
    29. 9.2015 18:56:44
    Source
    Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/semantische-filterung-ein-werkzeug-zur-steigerung-der-effizienz-im-wissensmanagement/
  9. Gillitzer, B.: Yewno (2017) 0.04
    0.035913974 = product of:
      0.07182795 = sum of:
        0.032549914 = weight(_text_:und in 3447) [ClassicSimilarity], result of:
          0.032549914 = score(doc=3447,freq=26.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.3531656 = fieldWeight in 3447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.031765897 = weight(_text_:der in 3447) [ClassicSimilarity], result of:
          0.031765897 = score(doc=3447,freq=24.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34197432 = fieldWeight in 3447, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=3447)
        0.0075121387 = product of:
          0.022536416 = sum of:
            0.022536416 = weight(_text_:22 in 3447) [ClassicSimilarity], result of:
              0.022536416 = score(doc=3447,freq=2.0), product of:
                0.14562127 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04158434 = queryNorm
                0.15476047 = fieldWeight in 3447, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3447)
          0.33333334 = coord(1/3)
      0.5 = coord(3/6)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Date
    22. 2.2017 10:16:49
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  10. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.03
    0.030384034 = product of:
      0.0911521 = sum of:
        0.04869429 = weight(_text_:und in 4884) [ClassicSimilarity], result of:
          0.04869429 = score(doc=4884,freq=76.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.5283316 = fieldWeight in 4884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
        0.042457808 = weight(_text_:der in 4884) [ClassicSimilarity], result of:
          0.042457808 = score(doc=4884,freq=56.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.4570776 = fieldWeight in 4884, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4884)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
  11. Evens, M.: Thesaural relations in information retrieval (2002) 0.03
    0.029219603 = product of:
      0.08765881 = sum of:
        0.07390377 = weight(_text_:theorie in 1201) [ClassicSimilarity], result of:
          0.07390377 = score(doc=1201,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.34323892 = fieldWeight in 1201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.046875 = fieldNorm(doc=1201)
        0.0137550365 = weight(_text_:der in 1201) [ClassicSimilarity], result of:
          0.0137550365 = score(doc=1201,freq=2.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.14807922 = fieldWeight in 1201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1201)
      0.33333334 = coord(2/6)
    
    Footnote
    Mit einer Tabelle der diskutierten Relationen
    Theme
    Theorie verbaler Dokumentationssprachen
  12. Boteram, F.: Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation (2013) 0.03
    0.025711443 = product of:
      0.077134326 = sum of:
        0.03742696 = weight(_text_:und in 919) [ClassicSimilarity], result of:
          0.03742696 = score(doc=919,freq=22.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.40608138 = fieldWeight in 919, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=919)
        0.03970737 = weight(_text_:der in 919) [ClassicSimilarity], result of:
          0.03970737 = score(doc=919,freq=24.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.42746788 = fieldWeight in 919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=919)
      0.33333334 = coord(2/6)
    
    Abstract
    Die, differenzierte Typisierung semantischer Relationen hinsichtlich ihrer bedeutungstragenden inhaltlichen und formallogischen Eigenschaften in Systemen der Wissensorganisation ist eine Voraussetzung für leistungsstarke und benutzerfreundliche Modelle des information Retrieval und der Wissensexploration. Systeme, die mehrere Dokumentationssprachen miteinander verknüpfen und funktional integrieren, erfordern besondere Ansätze für die Typisierung der verwendeten oder benötigten Relationen. Aufbauend auf vorangegangenen Überlegungen zu Modellen der semantischen Interoperabilität in verteilten Systemen, welche durch ein zentrales Kernsystem miteinander verbunden und so in den übergeordneten Funktionszusammenhang der Wissensorganisation gestellt werden, werden differenzierte und funktionale Strategien zur Typisierung und stratifizierten Definition der unterschiedlichen Relationen in diesem System entwickelt. Um die von fortschrittlichen Retrievalparadigmen erforderten Funktionalitäten im Kontext vernetzter Systeme zur Wissensorganisation unterstützen zu können, werden die formallogischen, typologischen und strukturellen Eigenschaften sowie der eigentliche semantische Gehalt aller Relationstypen definiert, die zur Darstellung von Begriffsbeziehungen verwendet werden. Um die Vielzahl unterschiedlicher aber im Funktionszusammenhang des Gesamtsystems auf einander bezogenen Relationstypen präzise und effizient ordnen zu können, wird eine mehrfach gegliederte Struktur benötigt, welche die angestrebten Inventare in einer Ear den Nutzer übersichtlichen und intuitiv handhabbaren Form präsentieren und somit für eine Verwendung in explorativen Systemen vorhalten kann.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  13. Gradmann, S.; Olensky, M.: Semantische Kontextualisierung von Museumsbeständen in Europeana (2013) 0.03
    0.025555737 = product of:
      0.07666721 = sum of:
        0.033169966 = weight(_text_:und in 939) [ClassicSimilarity], result of:
          0.033169966 = score(doc=939,freq=12.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.35989314 = fieldWeight in 939, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=939)
        0.043497246 = weight(_text_:der in 939) [ClassicSimilarity], result of:
          0.043497246 = score(doc=939,freq=20.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.46826762 = fieldWeight in 939, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=939)
      0.33333334 = coord(2/6)
    
    Abstract
    Europeana ist eine Initiative der Europäischen Kommission, die 2005 den Aufbau einer "Europäischen digitalen Bibliothek" als Teil ihrer i2010 Agenda ankündigte. Europeana soll ein gemeinsamer multilingualer Zugangspunkt zu Europas digitalem Kulturerbe und gleichzeitig mehr als "nur" eine digitale Bibliothek werden: eine offene Schnittstelle (API) für Wissenschaftsanwendungen, die ein Netzwerk von Objektsurrogaren darstellt, die semantikbasiertes Objektretrieval und - verwendung ermöglichen. Einerseits ist die semantische Kontextualisierung der digitalen Objekte eine unabdingbare Voraussetzung für effektives Information Retrieval, da aufgrund der Beschaffenheit der Öbjekte (bildlich, multimedial) deskriptive Metadaten meist nicht ausreichen, auf der anderen Seite bildet sie die Grundlage für neues Wissen. Kern geisteswissenschaftlicher Arbeit ist immer schon die Reaggregation und Interpretation kultureller Artefakte gewesen und Europeana ermöglicht nun mit (teil-)automatisierbaren, semantikbasierten Öperationen über große kulturelle Quellcorpora völlig neue Perspektiven für die digital humanities. Folglich hat Europeans das Potenzial eine Schlüsselressource der Geistes- und Kulturwissenschaften und damit Teil deren zukünftiger digitaler Arbeitsumgebungen zu werden.
    Series
    Fortschritte in der Wissensorganisation; Bd.12
    Source
    Wissen - Wissenschaft - Organisation: Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009. Hrsg.: H.P. Ohly
  14. Heinz, S.: Realisierung und Evaluierung eines virtuellen Bibliotheksregals für die Informationswissenschaft an der Universitätsbibliothek Hildesheim (2003) 0.03
    0.02516882 = product of:
      0.075506456 = sum of:
        0.027363827 = weight(_text_:und in 5982) [ClassicSimilarity], result of:
          0.027363827 = score(doc=5982,freq=6.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.2968967 = fieldWeight in 5982, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
        0.04814263 = weight(_text_:der in 5982) [ClassicSimilarity], result of:
          0.04814263 = score(doc=5982,freq=18.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.5182773 = fieldWeight in 5982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5982)
      0.33333334 = coord(2/6)
    
    Abstract
    Im Rahmen der vorliegenden Magisterarbeit wurde ein virtuelles Bibliotheksregal für die Informationswissenschaft entwickelt. Es ermöglicht den BenutzerInnen den Browsing-Zugang zum informationswissenschaftlichen Literaturbestand der Universitätsbibliothek Hildesheim über drei verschiedene hierarchische Ordnungssystematiken. Die BenutzerInnen können eine Systematik auswählen, nach der sich der Bestand entsprechend anordnet. Die vorliegende Arbeit beschreibt die einzelnen Schritte der Realisierung des virtuellen Bibliotheksregals sowie seine anschließende Evaluierung durch einen Benutzertest, der mit Studierenden der Universität Hildesheim durchgeführt wurde.
    Content
    [Magisterarbeit im Studiengang Internationales Informationsmanagement am Fachbereich Informations- und Kommunikationswissenschaften der Universität Hildesheim]
    Imprint
    Hildesheim] : Fachbereich Informations- und Kommunikationswissenschaften
  15. Tudhope, D.; Alani, H.; Jones, C.: Augmenting thesaurus relationships : possibilities for retrieval (2001) 0.02
    0.024290375 = product of:
      0.072871126 = sum of:
        0.011284653 = weight(_text_:und in 1520) [ClassicSimilarity], result of:
          0.011284653 = score(doc=1520,freq=2.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.12243814 = fieldWeight in 1520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1520)
        0.061586473 = weight(_text_:theorie in 1520) [ClassicSimilarity], result of:
          0.061586473 = score(doc=1520,freq=2.0), product of:
            0.2153129 = queryWeight, product of:
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.04158434 = queryNorm
            0.28603244 = fieldWeight in 1520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.17774 = idf(docFreq=677, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1520)
      0.33333334 = coord(2/6)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
    Theorie verbaler Dokumentationssprachen
  16. Schek, M.: Automatische Klassifizierung in Erschließung und Recherche eines Pressearchivs (2006) 0.02
    0.023091769 = product of:
      0.069275305 = sum of:
        0.03496422 = weight(_text_:und in 6043) [ClassicSimilarity], result of:
          0.03496422 = score(doc=6043,freq=30.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.3793607 = fieldWeight in 6043, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
        0.03431109 = weight(_text_:der in 6043) [ClassicSimilarity], result of:
          0.03431109 = score(doc=6043,freq=28.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.36937445 = fieldWeight in 6043, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=6043)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und für Recherchezwecke bereitstellt. Die DIZ-Pressedatenbank (www.medienport.de) ermöglicht die browserbasierte Recherche für Redakteure und externe Kunden im Intra- und Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZ-Pressedatenbank enthält z. Zt. 7,8 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 durch Dokumentare inhaltlich erschlossen werden. Die Informationserschließung erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, die untereinander zum "DIZ-Wissensnetz" verlinkt sind. DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Qualitätssicherung der Dossiers auf. Im Zuge der Medienkrise mussten sich DIZ der Herausforderung stellen, bei sinkenden Lektoratskapazitäten die Qualität der Informationserschließung im Input zu erhalten. Auf der Outputseite gilt es, eine anspruchsvolle Zielgruppe - u.a. die Redakteure der Süddeutschen Zeitung - passgenau und zeitnah mit den Informationen zu versorgen, die sie für ihre tägliche Arbeit benötigt. Bezogen auf die Ausgangssituation in der Dokumentation der Süddeutschen Zeitung identifizierte DIZ drei Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: - (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) - Visualisierung des Wissensnetzes - Neue Retrievalmöglichkeiten (Ähnlichkeitssuche, Clustering) Im Bereich "Visualisierung" setzt DIZ auf den Net-Navigator von intelligent views, eine interaktive Visualisierung allgemeiner Graphen, basierend auf einem physikalischen Modell. In den Bereichen automatische Klassifizierung, Ähnlichkeitssuche und Clustering hat DIZ sich für das Produkt nextBot der Firma Brainbot entschieden.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  17. Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001) 0.02
    0.022711609 = product of:
      0.06813482 = sum of:
        0.04062475 = weight(_text_:und in 5856) [ClassicSimilarity], result of:
          0.04062475 = score(doc=5856,freq=18.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.4407773 = fieldWeight in 5856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
        0.027510073 = weight(_text_:der in 5856) [ClassicSimilarity], result of:
          0.027510073 = score(doc=5856,freq=8.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.29615843 = fieldWeight in 5856, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=5856)
      0.33333334 = coord(2/6)
    
    Abstract
    Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004) 0.02
    0.022625595 = product of:
      0.067876786 = sum of:
        0.03611089 = weight(_text_:und in 2491) [ClassicSimilarity], result of:
          0.03611089 = score(doc=2491,freq=8.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.39180204 = fieldWeight in 2491, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2491)
        0.031765897 = weight(_text_:der in 2491) [ClassicSimilarity], result of:
          0.031765897 = score(doc=2491,freq=6.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34197432 = fieldWeight in 2491, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=2491)
      0.33333334 = coord(2/6)
    
    Abstract
    In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.1, S.70-80
  19. Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006) 0.02
    0.02212066 = product of:
      0.06636198 = sum of:
        0.04690942 = weight(_text_:und in 6047) [ClassicSimilarity], result of:
          0.04690942 = score(doc=6047,freq=24.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.5089658 = fieldWeight in 6047, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
        0.01945256 = weight(_text_:der in 6047) [ClassicSimilarity], result of:
          0.01945256 = score(doc=6047,freq=4.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.20941564 = fieldWeight in 6047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6047)
      0.33333334 = coord(2/6)
    
    Abstract
    In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  20. Revolutionäre neue Suchvariante mit neuem grafischen Assoziativ-OPAC : Spidersearch von BOND 0.02
    0.02209163 = product of:
      0.06627489 = sum of:
        0.033853956 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.033853956 = score(doc=1088,freq=18.0), product of:
            0.092166156 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.04158434 = queryNorm
            0.3673144 = fieldWeight in 1088, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
        0.032420933 = weight(_text_:der in 1088) [ClassicSimilarity], result of:
          0.032420933 = score(doc=1088,freq=16.0), product of:
            0.09288972 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.04158434 = queryNorm
            0.34902605 = fieldWeight in 1088, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1088)
      0.33333334 = coord(2/6)
    
    Abstract
    "Ergonomisch" suchen! Ähnlich wie beim Surfen durch Webseiten, so navigiert der Leser mit SpiderSearch per Mausklick durch den Medienbestand der Bibliothek und erschließt diesen damit spielerisch. Wie kann man sich das vorstellen? SpiderSearch ist ein Zusatzmodul zum bewährten BOND-WebOPAC. Der Benutzer gibt, wie im normalen WebOPAC, sein gesuchtes Stichwort ein. Sofort setzt SpiderSearch den Begriff in das Zentrum einer grafischen Ergebnisoberfläche. Gleichzeitig bereitet SpiderSearch ein "semantisches Netz" mit "sinnvollen" Begriffen für die weitere Suche auf und stellt diese dem Leser in animierter visuell ansprechender Form zur Verfügung. Diese Begriffe (Assoziative) sind auf unterschiedliche Arten mit dem gesuchten Zentralbegriff verwandt. Sei es eine Wortverwandtschaft wie "Bibliothek" und "Bibliothekarin", eine Sinnverwandtschaft wie "Bibliothek" und "lesen" oder ein anderer sprachwissenschaftlicher Zusammenhang wie z.B. "Bibliothek" und "Ruhe". Die unterschiedlichen Verwandtschaftsarten werden durch unterschiedliche Farben und Größen deutlich. Zum Verfeinern kann der Benutzer einfach einen der verwandten Begriffe anklicken und die Suche wird um diesen Suchbegriff erweitert. So wird der Leser in seiner weiteren Suche quasi durch dieses "Netz" geführt. Eine revolutionäre Art der Suche, mit der die Bibliotheksbenutzer ihre eigenen Informationsnetze spinnen und einfach und sehr anschaulich den Medienbestand noch optimaler erschließen können.

Years

Languages

  • e 62
  • d 38
  • f 1
  • More… Less…

Types

  • a 87
  • el 9
  • m 5
  • r 4
  • x 3
  • s 1
  • More… Less…