Search (274 results, page 1 of 14)

  • × type_ss:"r"
  1. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.22
    0.2225925 = product of:
      0.3116295 = sum of:
        0.11511128 = weight(_text_:methoden in 4322) [ClassicSimilarity], result of:
          0.11511128 = score(doc=4322,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.04466665 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.04466665 = score(doc=4322,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.11441184 = weight(_text_:techniken in 4322) [ClassicSimilarity], result of:
          0.11441184 = score(doc=4322,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.4072887 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.012540191 = weight(_text_:in in 4322) [ClassicSimilarity], result of:
          0.012540191 = score(doc=4322,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.20163295 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.024899531 = weight(_text_:den in 4322) [ClassicSimilarity], result of:
          0.024899531 = score(doc=4322,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 4322, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.71428573 = coord(5/7)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  2. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.19
    0.19234532 = product of:
      0.26928344 = sum of:
        0.09592607 = weight(_text_:methoden in 4063) [ClassicSimilarity], result of:
          0.09592607 = score(doc=4063,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.4048574 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.037222207 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.037222207 = score(doc=4063,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.0953432 = weight(_text_:techniken in 4063) [ClassicSimilarity], result of:
          0.0953432 = score(doc=4063,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.33940727 = fieldWeight in 4063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.011447575 = weight(_text_:in in 4063) [ClassicSimilarity], result of:
          0.011447575 = score(doc=4063,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18406484 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.029344378 = weight(_text_:den in 4063) [ClassicSimilarity], result of:
          0.029344378 = score(doc=4063,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.71428573 = coord(5/7)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
    Theme
    Semantisches Umfeld in Indexierung u. Retrieval
  3. EDV-Projekte und Anwendungen neuer Techniken : Medien in wissenschaftlichen Bibliotheken Deutschlands (1996) 0.17
    0.17044336 = product of:
      0.29827586 = sum of:
        0.034384403 = weight(_text_:und in 4511) [ClassicSimilarity], result of:
          0.034384403 = score(doc=4511,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.33931053 = fieldWeight in 4511, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
        0.21573703 = weight(_text_:techniken in 4511) [ClassicSimilarity], result of:
          0.21573703 = score(doc=4511,freq=4.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.76799095 = fieldWeight in 4511, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
        0.014955049 = weight(_text_:in in 4511) [ClassicSimilarity], result of:
          0.014955049 = score(doc=4511,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.24046129 = fieldWeight in 4511, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
        0.033199377 = weight(_text_:den in 4511) [ClassicSimilarity], result of:
          0.033199377 = score(doc=4511,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 4511, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=4511)
      0.5714286 = coord(4/7)
    
    Abstract
    Eine große Anzahl deutscher wissenschaftlicher Bibliotheken erprobt den Einsatz neuer Techniken mit Pilot- und Anwendungsprojekten verschiedenster Art. Sie werden in nicht unerheblichem Maße gefördert, so z.B. im Rahmen des Förderungsprogramms 'Modernisierung und Rationalisierung in wissenschaftlichen Bibliotheken' der DFG. Von 155 angeschriebenen Institutionen wurden 109 Projekte gemeldet. Daraus resultieren 50 Projektbeschreibungen im Hauptteil dieser Veröffentlichung. Die Projekte sind dsachlich nach dem klassischen Geschäftsgang in Bibliotheken, nämlich Erwerbung, Erschließung, Benutzung angeordnet. Management als übergreifender Bereich wurde vorangestellt
  4. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.16
    0.1632758 = product of:
      0.28573263 = sum of:
        0.094961956 = weight(_text_:methoden in 4782) [ClassicSimilarity], result of:
          0.094961956 = score(doc=4782,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.045957662 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.045957662 = score(doc=4782,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.13348047 = weight(_text_:techniken in 4782) [ClassicSimilarity], result of:
          0.13348047 = score(doc=4782,freq=2.0), product of:
            0.2809109 = queryWeight, product of:
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.045721713 = queryNorm
            0.47517014 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.1439276 = idf(docFreq=257, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.011332521 = weight(_text_:in in 4782) [ClassicSimilarity], result of:
          0.011332521 = score(doc=4782,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1822149 = fieldWeight in 4782, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.5714286 = coord(4/7)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  5. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.10
    0.09984599 = product of:
      0.17473048 = sum of:
        0.08139597 = weight(_text_:methoden in 2817) [ClassicSimilarity], result of:
          0.08139597 = score(doc=2817,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 2817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.036470167 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.036470167 = score(doc=2817,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.013737091 = weight(_text_:in in 2817) [ClassicSimilarity], result of:
          0.013737091 = score(doc=2817,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.22087781 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.043127254 = weight(_text_:den in 2817) [ClassicSimilarity], result of:
          0.043127254 = score(doc=2817,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.32909638 = fieldWeight in 2817, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.5714286 = coord(4/7)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
  6. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.09
    0.09326117 = product of:
      0.16320704 = sum of:
        0.094961956 = weight(_text_:methoden in 1698) [ClassicSimilarity], result of:
          0.094961956 = score(doc=1698,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 1698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.024565404 = weight(_text_:und in 1698) [ClassicSimilarity], result of:
          0.024565404 = score(doc=1698,freq=4.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.24241515 = fieldWeight in 1698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.014630223 = weight(_text_:in in 1698) [ClassicSimilarity], result of:
          0.014630223 = score(doc=1698,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23523843 = fieldWeight in 1698, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.029049452 = weight(_text_:den in 1698) [ClassicSimilarity], result of:
          0.029049452 = score(doc=1698,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 1698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.5714286 = coord(4/7)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
  7. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.09
    0.092006005 = product of:
      0.1610105 = sum of:
        0.08139597 = weight(_text_:methoden in 1863) [ClassicSimilarity], result of:
          0.08139597 = score(doc=1863,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 1863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.036470167 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.036470167 = score(doc=1863,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35989314 = fieldWeight in 1863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.007931113 = weight(_text_:in in 1863) [ClassicSimilarity], result of:
          0.007931113 = score(doc=1863,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 1863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.035213258 = weight(_text_:den in 1863) [ClassicSimilarity], result of:
          0.035213258 = score(doc=1863,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.26870608 = fieldWeight in 1863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.5714286 = coord(4/7)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  8. Hegner, M.: Methode zur Evaluation von Software (2003) 0.08
    0.081728 = product of:
      0.19069865 = sum of:
        0.11511128 = weight(_text_:methoden in 2499) [ClassicSimilarity], result of:
          0.11511128 = score(doc=2499,freq=4.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.48582888 = fieldWeight in 2499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.025788303 = weight(_text_:und in 2499) [ClassicSimilarity], result of:
          0.025788303 = score(doc=2499,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.2544829 = fieldWeight in 2499, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.049799062 = weight(_text_:den in 2499) [ClassicSimilarity], result of:
          0.049799062 = score(doc=2499,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.38000777 = fieldWeight in 2499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
      0.42857143 = coord(3/7)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
  9. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.08
    0.08057475 = product of:
      0.14100581 = sum of:
        0.067829974 = weight(_text_:methoden in 5787) [ClassicSimilarity], result of:
          0.067829974 = score(doc=5787,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.2862774 = fieldWeight in 5787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.037222207 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
          0.037222207 = score(doc=5787,freq=18.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3673144 = fieldWeight in 5787, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.0066092606 = weight(_text_:in in 5787) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=5787,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 5787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.029344378 = weight(_text_:den in 5787) [ClassicSimilarity], result of:
          0.029344378 = score(doc=5787,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 5787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
      0.5714286 = coord(4/7)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  10. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.08
    0.08056601 = product of:
      0.18798736 = sum of:
        0.13565995 = weight(_text_:methoden in 1628) [ClassicSimilarity], result of:
          0.13565995 = score(doc=1628,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.5725548 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.042980507 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.042980507 = score(doc=1628,freq=6.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.009346906 = weight(_text_:in in 1628) [ClassicSimilarity], result of:
          0.009346906 = score(doc=1628,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.42857143 = coord(3/7)
    
    Abstract
    Behandelt werden: das Fernseharchiv des WDR, die Stockshot Database des National Film Board of Canada und das Projekt AMPHORE (IWF + GMD)
    Footnote
    Rez. in: nfd 50(1999) H.1, S.56 (W. Putz)
    Imprint
    Köln : Fachhochschule, Fb Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  11. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.07
    0.07442746 = product of:
      0.13024805 = sum of:
        0.054263975 = weight(_text_:methoden in 1076) [ClassicSimilarity], result of:
          0.054263975 = score(doc=1076,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.22902192 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.031388525 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.031388525 = score(doc=1076,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.0074775247 = weight(_text_:in in 1076) [ClassicSimilarity], result of:
          0.0074775247 = score(doc=1076,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.120230645 = fieldWeight in 1076, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.03711803 = weight(_text_:den in 1076) [ClassicSimilarity], result of:
          0.03711803 = score(doc=1076,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.28324106 = fieldWeight in 1076, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  12. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.07
    0.073734194 = product of:
      0.12903483 = sum of:
        0.047480978 = weight(_text_:methoden in 4416) [ClassicSimilarity], result of:
          0.047480978 = score(doc=4416,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.20039418 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.03580992 = weight(_text_:und in 4416) [ClassicSimilarity], result of:
          0.03580992 = score(doc=4416,freq=34.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.35337773 = fieldWeight in 4416, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.0073151113 = weight(_text_:in in 4416) [ClassicSimilarity], result of:
          0.0073151113 = score(doc=4416,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.11761922 = fieldWeight in 4416, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.038428817 = weight(_text_:den in 4416) [ClassicSimilarity], result of:
          0.038428817 = score(doc=4416,freq=14.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.29324344 = fieldWeight in 4416, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.5714286 = coord(4/7)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  13. Körner, H.G.: Notationssysteme für Dokumentationssprachen und Klassifikationssysteme (1980) 0.07
    0.06803663 = product of:
      0.15875214 = sum of:
        0.094961956 = weight(_text_:methoden in 1239) [ClassicSimilarity], result of:
          0.094961956 = score(doc=1239,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.40078837 = fieldWeight in 1239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
        0.034740727 = weight(_text_:und in 1239) [ClassicSimilarity], result of:
          0.034740727 = score(doc=1239,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34282678 = fieldWeight in 1239, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
        0.029049452 = weight(_text_:den in 1239) [ClassicSimilarity], result of:
          0.029049452 = score(doc=1239,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 1239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
      0.42857143 = coord(3/7)
    
    Abstract
    Klassifikationen haben i.a. bei jeder Systemstelle eine Notation, die den Platz im System festlegt und als Kurzbezeichnung dient. Dokumentationssprachen verwenden häufig einen hierarchisch strukturierten Thesaurus, bei dem ebenfalls Notationen eingesetzt werden können. Beim Entwurf von Notationen sollten computer-interne und computer-externe Aspekte berücksichtigt werden. Es wird systematisch dargestellt, welche grundsätzlichen Typen von Notationssysstemen entworfen werden können, u.a. auch die vom Verfasser entwickelten durchgehenden oder sequentiellen Notationen mit Ebenenindikator. Linksbündige sequentielle Notationssysteme sind besonders flexibel, d.h. Einfügungen und andere Veränderungen sind leicht möglich. Die Bewertung von Notationssystemen, an einem Beispiel durchgeführt, geschieht an Hand eines möglichst umfassenden Anforderungskatalogs. Für Entwurfsentscheidungen werden die Methoden der Nutzwertanalyse empfohlen, insbesondere auch bei der Frage, ob Notationen überhaupt eingesetzt werden sollen. Eine weitere Möglichkeit ist, daß Notationen nur auf bestimmten hierarchischen Ebenen verwendet werden
  14. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.07
    0.0677943 = product of:
      0.11864002 = sum of:
        0.042980507 = weight(_text_:und in 4291) [ClassicSimilarity], result of:
          0.042980507 = score(doc=4291,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.42413816 = fieldWeight in 4291, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.009346906 = weight(_text_:in in 4291) [ClassicSimilarity], result of:
          0.009346906 = score(doc=4291,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 4291, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.050825957 = weight(_text_:den in 4291) [ClassicSimilarity], result of:
          0.050825957 = score(doc=4291,freq=12.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.38784382 = fieldWeight in 4291, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.030973306 = score(doc=4291,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Seit den 1970/80er Jahren unterstützen sechs Verbundzentralen die Dienstleistungen der Bibliotheken in Deutschland. Mit lokalen, regionalen und überregionalen Services leisten sie einen wichtigen Beitrag für ein funktionierendes nationales Bibliothekssystem. Neue Technologien und globale Vernetzung verändern jedoch die Informationslandschaft mit hoher Dynamik. Um den Herausforderungen in Zukunft gewachsen zu sein, empfehlen die Deutsche Forschungsgemeinschaft (DFG) und der Wissenschaftsrat (WR) eine strategische Neuausrichtung und eine Neuordnung der Verbundsysteme.
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
    Editor
    Deutsche Forschungsgemeinschaft / Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme
  15. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.07
    0.06713703 = product of:
      0.11748981 = sum of:
        0.05115703 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.05115703 = score(doc=4997,freq=34.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.009346906 = weight(_text_:in in 4997) [ClassicSimilarity], result of:
          0.009346906 = score(doc=4997,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 4997, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.041499224 = weight(_text_:den in 4997) [ClassicSimilarity], result of:
          0.041499224 = score(doc=4997,freq=8.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.31667316 = fieldWeight in 4997, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.015486653 = product of:
          0.030973306 = sum of:
            0.030973306 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.030973306 = score(doc=4997,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können. [Quelle: https://netzpolitik.org/2019/wir-veroeffentlichen-das-framing-gutachten-der-ard/].
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  16. Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023) 0.06
    0.064156845 = product of:
      0.11227447 = sum of:
        0.030391807 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
          0.030391807 = score(doc=1006,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.29991096 = fieldWeight in 1006, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.009346906 = weight(_text_:in in 1006) [ClassicSimilarity], result of:
          0.009346906 = score(doc=1006,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15028831 = fieldWeight in 1006, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.020749612 = weight(_text_:den in 1006) [ClassicSimilarity], result of:
          0.020749612 = score(doc=1006,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 1006, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1006)
        0.05178614 = product of:
          0.10357228 = sum of:
            0.10357228 = weight(_text_:naturwissenschaften in 1006) [ClassicSimilarity], result of:
              0.10357228 = score(doc=1006,freq=2.0), product of:
                0.29278275 = queryWeight, product of:
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.045721713 = queryNorm
                0.3537513 = fieldWeight in 1006, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  6.4035826 = idf(docFreq=198, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1006)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    KI-basierte Tools wie ChatGPT bzw. GPT-4 verändern derzeit die Hochschullandschaft und vielerorts wird bereits über die Konsequenzen für die zukünftigen Lehr- und Prüfungsformen diskutiert. Um hier eine empirische Grundlage zu schaffen, ist eine deutschlandweite Befragung von Studierenden durchgeführt worden, in welcher das Nutzungsverhalten im Umgang mit KI-basierten Tools im Rahmen des Studiums und Alltags erfasst wurde. Hierbei wurden unter anderem diverse Funktionen der KI-basierten Tools identifiziert, die für die Studierenden als besonders wichtig eingeschätzt wurden. Das Ziel der quantitativen Befragung lag somit in der Erfassung davon, wie KI-Tools genutzt werden und welche Faktoren für die Nutzung maßgeblich sind. Insgesamt haben sich deutschlandweit über 6300 Studierende an der anonymen Befragung beteiligt. Die Ergebnisse dieser quantitativen Analyse verdeutlichen, dass fast zwei Drittel der befragten Studierenden KI-basierte Tools im Rahmen des Studiums nutzen bzw. genutzt haben. Explizit nennen in diesem Kontext fast die Hälfte der befragten Studierenden ChatGPT bzw. GPT-4 als genutztes Tool. Am häufigsten nutzen Studierende der Ingenieurwissenschaften sowie Mathematik und Naturwissenschaften KI-basierte Tools. Eine differenzierte Betrachtung des Nutzungsverhaltens verdeutlicht, dass die Studierenden KI-basierte Tools vielfältig einsetzen. Die Klärung von Verständnisfragen und Erläuterung fachspezifischer Konzepte zählen in diesem Kontext zu den relevantesten Nutzungsgründen.
  17. Huemer, H.: Semantische Technologien : Analyse zum Status quo, Potentiale und Ziele im Bibliotheks-, Informations- und Dokumentationswesen (2006) 0.06
    0.06019035 = product of:
      0.105333105 = sum of:
        0.033914987 = weight(_text_:methoden in 641) [ClassicSimilarity], result of:
          0.033914987 = score(doc=641,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.1431387 = fieldWeight in 641, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.033979077 = weight(_text_:und in 641) [ClassicSimilarity], result of:
          0.033979077 = score(doc=641,freq=60.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.33531067 = fieldWeight in 641, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.008094659 = weight(_text_:in in 641) [ClassicSimilarity], result of:
          0.008094659 = score(doc=641,freq=24.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.1301535 = fieldWeight in 641, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
        0.029344378 = weight(_text_:den in 641) [ClassicSimilarity], result of:
          0.029344378 = score(doc=641,freq=16.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 641, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.01953125 = fieldNorm(doc=641)
      0.5714286 = coord(4/7)
    
    Abstract
    Das vorliegende Werk ist der erste Band in der Reihe "Branchenreports" der Semantic Web School. Diese Reihe, die in Zusammenarbeit mit Branchenexperten entwickelt wurde, verfolgt das Ziel, in regelmäßigen Abständen die Bedeutung semantischer Technologien in ausgewählten Branchen und Communities zu analysieren und zu durchleuchten. Damit sollen dem interessierten Leser in erster Linie ein Überblick und Einstiegspunkte geboten werden: Die Branchenreports helfen, sich in einem emergenten Umfeld besser orientieren zu können, sie zeigen Entwicklungspfade an, entlang welcher sich Branchen bewegen, die vermehrt auf den Einsatz semantischer Informationstechnologien setzen. Dieser Branchenreport beschäftigt sich mit dem Bibliotheks-, Informationsund Dokumentationswesen (BID) und es ist kein Zufall, dass diese Branche als erste durchleuchtet wird, sind doch hier die Wurzeln der professionellen Wissensorganisation zu finden. Nun, im Zeitalter der Digitalisierung und des Internets, steht diese Community vor neuen, großen Herausforderungen und Möglichkeiten. Gerade im Umfeld des Semantic Web zeigt sich, dass die Erfahrungen aus dem BID-Bereich einen wichtigen Beitrag leisten können, soll die Entwicklung des Internets der nächsten Generation nicht nur von der Technik geprägt werden. Dieser Band möchte die Neugierde all jener wecken, die sich vor neuen Technologien nicht verschließen, und darauf aufmerksam machen, dass die Möglichkeiten, Information und Wissen zu organisieren, im 21. Jahrhundert gänzlich neue sein werden.
    Content
    Inhaltsverzeichnis 1. Einleitung 2. Bibliothekspolitik 3. Begriffsdefinitionen 3.1. Bibliothek - 3.2. Archiv - 3.3. Museum - 3.4. Information und Dokumentation - 3.5. Information - 3.6. Semantik und semantische Technologien - 3.7. Ontologie - 3.8. Recall und Precision 4. Bibliotheken aus statistischer Sicht - Kennzahlen 5. Bibliographische Tools 5.1. Austauschformate 5.1.1. MAB / MAB2 - 5.1.2. Allegro-C - 5.1.3. MARC 2 - 5.1.4. Z39.50 - 5.1.5. Weitere Formate 5.2. Kataloge / OPACs 5.2.1. Aleph 500 - 5.2.2. Allegro-C - 5.2.3. WorldCat beta 5.3. Dokumentationssysteme 5.4. Suchmaschinen 5.4.1. Convera und ProTerm - 5.4.2. APA Online Manager - 5.4.3. Google Scholar - 5.4.4. Scirus - 5.4.5. OAIster - 5.4.6. GRACE 5.5. Informationsportale 5.5.1. iPort - 5.5.2. MetaLib - 5.5.3. Vascoda - 5.5.4. Dandelon - 5.5.5. BAM-Portal - 5.5.6. Prometheus 6. Semantische Anreicherung 6.1. Indexierung - 6.2. Klassifikation - 6.3. Thesauri 38 - 6.4. Social Tagging 7. Projekte 7.1. Bibster - 7.2. Open Archives Initiative OAI - 7.3. Renardus - 7.4. Perseus Digital Library - 7.5. JeromeDL - eLibrary with Semantics 8. Semantische Technologien in BAM-InstitutionenÖsterreichs 8.1. Verbundkatalog des Österreichischen Bibliothekenverbunds - 8.2. Bibliotheken Online - WebOPAC der Öffentlichen Bibliotheken - 8.3. Umfrage-Design - 8.4. Auswertung 9. Fazit und Ausblick 10. Quellenverzeichnis 11. Web-Links 12. Anhang Vgl.: http://www.semantic-web.at/file_upload/1_tmpphp154oO0.pdf.
    Footnote
    Rez. in: Mitt VÖB 60(2007)H.3, S.80-81 (J. Bertram): "Wie aus dem Titel der Publikation hervorgeht, will der Autor eine Bestandsaufnahme zum Einsatz semantischer Technologien im BID-Bereich (Bibliothek - Information - Dokumentation) bzw. BAM-Bereich (Bibliothek - Archiv - Museum) vornehmen. einigem Befremden, dass eines von insgesamt drei Vorwörtern für ein einschlägiges Softwareprodukt wirbt und von einer Firmenmitarbeiterin verfasst worden ist. Nach einer Skizze des gegenwärtigen Standes nationaler und europäischer Bibliothekspolitik folgen kurze Definitionen zu den beteiligten Branchen, zu semantischen Technologien und zu Precision und Recall. Die Ausführungen zu semantischen Technologien hätten durchaus gleich an den Anfang gestellt werden können, schließlich sollen sie ja das Hauptthema der vorliegenden Publikation abgeben. Zudem hätten sie konkreter, trennschärfer und ausführlicher ausfallen können. Der Autor moniert zu Recht das Fehlen einer einheitlichen Auffassung, was unter semantischen Technologien denn nun genau zu verstehen sei. Seine Definition lässt allerdings Fragen offen. So wird z.B. nicht geklärt, was besagte Technologien von den hier auch immer wieder erwähnten semantischen Tools unterscheidet. Das nachfolgende Kapitel über bibliographische Tools vereint eine Aufzählung konkreter Beispiele für Austauschformate, Dokumentationssysteme, Suchmaschinen, Informationsportale und OPACs. Im Anschluss daran stellt der Autor Methoden semantischer Anreicherung (bibliographischer) Daten vor und präsentiert Projekte im Bibliotheksbereich. Der aufzählende Charakter dieses und des vorangestellten Kapitels mag einem schnellen Überblick über die fraglichen Gegenstände dienlich sein, für eine systematische Lektüre eignen sich diese Passagen weniger. Auch wird der Bezug zu semantischen Technologien nicht durchgängig hergestellt.
    Danach kommt das Werk - leider nur auf acht Seiten - zu seinem thematischen Kern. Die Frage, ob, in welchem Ausmaß und welche semantischen Technologien im BID-%BAM-Bereich eingesetzt werden, sollte eigentlich mit einer schriftlichen Befragung einschlägiger Institutionen verfolgt werden. Jedoch konnte dieses Ziel wegen des geringen Rücklaufs nur sehr eingeschränkt erreicht werden: im ersten Versuch antworteten sechs Personen aus insgesamt 65 angeschriebenen Institutionen. Beim zweiten Versuch mit einem deutlich abgespeckten Fragekatalog kamen weitere fünf Antworten dazu. Ausschlaggebend für die geringe Resonanz dürfte eine Mischung aus methodischen und inhaltlichen Faktoren gewesen sein: Eine schriftliche Befragung mit vorwiegend offenen Fragen durchzuführen, ist ohnehin schon ein Wagnis. Wenn diese Fragen dann auch noch gleichermaßen komplex wie voraussetzungsvoll sind, dann ist ein unbefriedigender Rücklauf keine Überraschung. Nicht zuletzt mag sich hier die Mutmaßung des Autors aus seinem Vorwort bewahrheiten und ihm zugleich zum Verhängnis geworden sein, nämlich dass "der Begriff 'Semantik' vielen Bibliothekaren und Dokumentaren noch nicht geläufig (ist)" - wie sollen sie dann aber Fragen dazu beantworten? Beispielhaft sei dafür die folgende angeführt: "Welche Erwartungen, Perspektiven, Prognosen, Potentiale, Paradigmen verbinden Sie persönlich mit dem Thema ,Semantische Technologien'?" Am Ende liegt der Wert der Untersuchung sicher vor allem darin, eine grundlegende Annahme über den Status quo in der fraglichen Branche zu bestätigen: dass semantische Technologien dort heute noch eine geringe Rolle und künftig schon eine viel größere spielen werden. Insgesamt gewinnt man den Eindruck, dass hier zum Hauptgegenstand geworden ist, was eigentlich nur Rahmen sein sollte. Die Publikation (auch der Anhang) wirkt streckenweise etwas mosaiksteinartig, das eigentlich Interessierende kommt zu kurz. Gleichwohl besteht ihr Verdienst darin, eine Annäherung an ein Thema zu geben, das in den fraglichen Institutionen noch nicht sehr bekannt ist. Auf diese Weise mag sie dazu beitragen, semantische Technologien im Bewusstsein der beteiligten Akteure stärker zu verankern. Das hier besprochene Werk ist der erste Band einer Publikationsreihe der Semantic Web School zum Einsatz semantischer Technologien in unterschiedlichen Branchen. Den nachfolgenden Bänden ist zu wünschen, dass sie sich auf empirische Untersuchungen mit größerer Resonanz stützen können."
    RSWK
    Information und Dokumentation / Semantic Web (GBV)
    Subject
    Information und Dokumentation / Semantic Web (GBV)
  18. Bartz, T.; Prestel, J.; Wagner, H.: Problemstellungen, Herausforderungen und Aufgabenbereiche für Bibliotheken als Informationsvermittler und -aufbereiter in der wissenschaftlichen Kommunikation im Umfeld des Internet : Endbericht der Arbeitsgruppe Virtuelle Bibliotheken (1995) 0.06
    0.05714076 = product of:
      0.13332844 = sum of:
        0.08139597 = weight(_text_:methoden in 2393) [ClassicSimilarity], result of:
          0.08139597 = score(doc=2393,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.039392285 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.039392285 = score(doc=2393,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38872904 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.012540191 = weight(_text_:in in 2393) [ClassicSimilarity], result of:
          0.012540191 = score(doc=2393,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.20163295 = fieldWeight in 2393, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.42857143 = coord(3/7)
    
    Abstract
    Durch die Möglichkeiten der Einbindung von Bibliotheken in internationale Kommunikationsnetzwerke wie dem Internet zeichnen sich völlig neue Potentiale für die Vermittlung und Distribution von Wissen ab. Die globale Vernetzung verbindet die elektronischen Bestände aller angeschlossenen Bibliotheken, Datenbankanbieter oder sonstiger Informationsprodutzenten zu einer einzigen 'virtuellen Bibliothek' - der alte Traum von einer umfassenden Enzyklopädie des Weltwissens scheint damit in greifbare Nähe zu rücken. Neue Formen von Informationsprodukten entstehen und damit gleichzeitig der Bedarf nach veränderten Methoden und Regeln der Wissenserschließung, -aufbereitung und -verteilung. Die direkte Zugänglichmachung von Dokumenten in elektronischer Form verändert auf gravierende Weise die Gepflogenheiten unserer traditionellen 'Informationskultur'. Mit der Dematerialisierung des Wissens, d.h. mit der Unabhängigkeit des Rohstoffs 'Wissen' von festgelegten Formaten und Trägermedien stellt vielleicht auch das 'Gebäude' Bibliothek in seiner bisherigen physischen Präsenz bald einen Anachronismus dar.
  19. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.06
    0.05516544 = product of:
      0.12871936 = sum of:
        0.08139597 = weight(_text_:methoden in 1476) [ClassicSimilarity], result of:
          0.08139597 = score(doc=1476,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 1476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.039392285 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.039392285 = score(doc=1476,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.007931113 = weight(_text_:in in 1476) [ClassicSimilarity], result of:
          0.007931113 = score(doc=1476,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 1476, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.42857143 = coord(3/7)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  20. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.06
    0.05515369 = product of:
      0.096518956 = sum of:
        0.04548629 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.04548629 = score(doc=506,freq=42.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.009891836 = weight(_text_:in in 506) [ClassicSimilarity], result of:
          0.009891836 = score(doc=506,freq=14.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.15905021 = fieldWeight in 506, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.028751504 = weight(_text_:den in 506) [ClassicSimilarity], result of:
          0.028751504 = score(doc=506,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.21939759 = fieldWeight in 506, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.024778644 = score(doc=506,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
    Issue
    Entschließung der 13. Mitgliederversammlung der HRK am 20. November 2012 in Göttingen.

Authors

Languages

  • e 162
  • d 109
  • nl 1
  • More… Less…

Types

  • el 34
  • m 5
  • s 4
  • x 2
  • More… Less…