Search (145 results, page 1 of 8)

  • × type_ss:"r"
  1. Hegner, M.: Methode zur Evaluation von Software (2003) 0.11
    0.11456987 = product of:
      0.18331179 = sum of:
        0.022193167 = weight(_text_:und in 2499) [ClassicSimilarity], result of:
          0.022193167 = score(doc=2499,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.2544829 = fieldWeight in 2499, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.099063665 = weight(_text_:methoden in 2499) [ClassicSimilarity], result of:
          0.099063665 = score(doc=2499,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 2499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.029102879 = weight(_text_:der in 2499) [ClassicSimilarity], result of:
          0.029102879 = score(doc=2499,freq=10.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3311152 = fieldWeight in 2499, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.022193167 = weight(_text_:und in 2499) [ClassicSimilarity], result of:
          0.022193167 = score(doc=2499,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.2544829 = fieldWeight in 2499, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2499)
        0.010758916 = product of:
          0.032276746 = sum of:
            0.032276746 = weight(_text_:29 in 2499) [ClassicSimilarity], result of:
              0.032276746 = score(doc=2499,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.23319192 = fieldWeight in 2499, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2499)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
    Series
    IZ-Arbeitsbericht; Nr.29
  2. Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001) 0.10
    0.10252296 = product of:
      0.20504592 = sum of:
        0.03843969 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.03843969 = score(doc=4322,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.099063665 = weight(_text_:methoden in 4322) [ClassicSimilarity], result of:
          0.099063665 = score(doc=4322,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.48582888 = fieldWeight in 4322, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.029102879 = weight(_text_:der in 4322) [ClassicSimilarity], result of:
          0.029102879 = score(doc=4322,freq=10.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3311152 = fieldWeight in 4322, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
        0.03843969 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
          0.03843969 = score(doc=4322,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4407773 = fieldWeight in 4322, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4322)
      0.5 = coord(4/8)
    
    Abstract
    Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
    Content
    Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
  3. Stock, W.G.: Publikation und Zitat : Die problematische Basis empirischer Wissenschaftsforschung (2001) 0.10
    0.09873307 = product of:
      0.1579729 = sum of:
        0.032033075 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
          0.032033075 = score(doc=5787,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3673144 = fieldWeight in 5787, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.058373824 = weight(_text_:methoden in 5787) [ClassicSimilarity], result of:
          0.058373824 = score(doc=5787,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.2862774 = fieldWeight in 5787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.026567172 = weight(_text_:der in 5787) [ClassicSimilarity], result of:
          0.026567172 = score(doc=5787,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.30226544 = fieldWeight in 5787, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.032033075 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
          0.032033075 = score(doc=5787,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3673144 = fieldWeight in 5787, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5787)
        0.008965762 = product of:
          0.026897287 = sum of:
            0.026897287 = weight(_text_:29 in 5787) [ClassicSimilarity], result of:
              0.026897287 = score(doc=5787,freq=2.0), product of:
                0.13841279 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19432661 = fieldWeight in 5787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5787)
          0.33333334 = coord(1/3)
      0.625 = coord(5/8)
    
    Abstract
    Die empirische Wissenschaftsforschung arbeitet bei den Indikatoren wissenschaftlicher Leistung und wissenschaftlicher Wirkung mit Publikations- und Zitationsraten. Die vorliegende Arbeit befaßt sich mit dabei auftretenden methodischen Problemen. Was ist überhaupt eine Publikation? Was heißt Zitation? Zentral ist auch die Zählbasis, d.h. die Einheitenbildung: Was ist 1 Publikation? und: Was ist 1 Zitation? Bei Printpublikationen gibt es eine Reihe von beachtenswerten Faktoren (u.a. Mehrautorenwerke, Gewichtungsfaktoren wie den Impact Factor, Dokumenttypen). Bei elektronischen Publikationen im Internet mit ihrem dynamischen Charakter ist die Einheitenbildung noch weitaus problematischer. Zitationen, verstanden als zitierte Publikationen, werfen alle methodischen Probleme der Publikationseinheiten auf, hinzu kommen weitere, spezifische Probleme. Lösungsmöglichkeiten im syntaktischen Bereich (Relativierung auf Textseiten oder Zeichen) ändern am grundlegenden Problem nur wenig, Lösungsversuche im semantischen Bereich (etwa im Rahmen der semantischen Informationstheorie) sind im Rahmen der Publikations- und Zitationsanalysen nicht durchführbar und verweisen sowohl auf themenanalytische Methoden als auch auf die Wissenschaftstheorie. Mit diesem Working Paper wollen wir vor allem auf offene Probleme hinweisen; "endgültige" Lösungen wird der Leser nicht finden, wohl aber Lösungsvorschläge, die meist durchaus noch diskussionswürdig sind. In der Informationswissenschaft wie in der Wissenschaftsforschung sind wir bisher viel zu sicher davon ausgegangen, daß wir wissen, was Publikationen und Zitationen sind
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.29
  4. Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011) 0.09
    0.0880046 = product of:
      0.1760092 = sum of:
        0.039550725 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.039550725 = score(doc=4782,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.08172335 = weight(_text_:methoden in 4782) [ClassicSimilarity], result of:
          0.08172335 = score(doc=4782,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.015184403 = weight(_text_:der in 4782) [ClassicSimilarity], result of:
          0.015184403 = score(doc=4782,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.17275909 = fieldWeight in 4782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
        0.039550725 = weight(_text_:und in 4782) [ClassicSimilarity], result of:
          0.039550725 = score(doc=4782,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.4535172 = fieldWeight in 4782, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4782)
      0.5 = coord(4/8)
    
    Abstract
    In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
  5. Bartz, T.; Prestel, J.; Wagner, H.: Problemstellungen, Herausforderungen und Aufgabenbereiche für Bibliotheken als Informationsvermittler und -aufbereiter in der wissenschaftlichen Kommunikation im Umfeld des Internet : Endbericht der Arbeitsgruppe Virtuelle Bibliotheken (1995) 0.09
    0.08733119 = product of:
      0.17466238 = sum of:
        0.033900622 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.033900622 = score(doc=2393,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.070048586 = weight(_text_:methoden in 2393) [ClassicSimilarity], result of:
          0.070048586 = score(doc=2393,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.036812555 = weight(_text_:der in 2393) [ClassicSimilarity], result of:
          0.036812555 = score(doc=2393,freq=16.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4188313 = fieldWeight in 2393, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
        0.033900622 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.033900622 = score(doc=2393,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2393)
      0.5 = coord(4/8)
    
    Abstract
    Durch die Möglichkeiten der Einbindung von Bibliotheken in internationale Kommunikationsnetzwerke wie dem Internet zeichnen sich völlig neue Potentiale für die Vermittlung und Distribution von Wissen ab. Die globale Vernetzung verbindet die elektronischen Bestände aller angeschlossenen Bibliotheken, Datenbankanbieter oder sonstiger Informationsprodutzenten zu einer einzigen 'virtuellen Bibliothek' - der alte Traum von einer umfassenden Enzyklopädie des Weltwissens scheint damit in greifbare Nähe zu rücken. Neue Formen von Informationsprodukten entstehen und damit gleichzeitig der Bedarf nach veränderten Methoden und Regeln der Wissenserschließung, -aufbereitung und -verteilung. Die direkte Zugänglichmachung von Dokumenten in elektronischer Form verändert auf gravierende Weise die Gepflogenheiten unserer traditionellen 'Informationskultur'. Mit der Dematerialisierung des Wissens, d.h. mit der Unabhängigkeit des Rohstoffs 'Wissen' von festgelegten Formaten und Trägermedien stellt vielleicht auch das 'Gebäude' Bibliothek in seiner bisherigen physischen Präsenz bald einen Anachronismus dar.
  6. Horch, A.; Kett, H.; Weisbecker, A.: Semantische Suchsysteme für das Internet : Architekturen und Komponenten semantischer Suchmaschinen (2013) 0.09
    0.08659319 = product of:
      0.17318638 = sum of:
        0.032033075 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.032033075 = score(doc=4063,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.08255305 = weight(_text_:methoden in 4063) [ClassicSimilarity], result of:
          0.08255305 = score(doc=4063,freq=4.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.4048574 = fieldWeight in 4063, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.026567172 = weight(_text_:der in 4063) [ClassicSimilarity], result of:
          0.026567172 = score(doc=4063,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.30226544 = fieldWeight in 4063, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
        0.032033075 = weight(_text_:und in 4063) [ClassicSimilarity], result of:
          0.032033075 = score(doc=4063,freq=18.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3673144 = fieldWeight in 4063, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4063)
      0.5 = coord(4/8)
    
    Abstract
    In der heutigen Zeit nimmt die Flut an Informationen exponentiell zu. In dieser »Informationsexplosion« entsteht täglich eine unüberschaubare Menge an neuen Informationen im Web: Beispielsweise 430 deutschsprachige Artikel bei Wikipedia, 2,4 Mio. Tweets bei Twitter und 12,2 Mio. Kommentare bei Facebook. Während in Deutschland vor einigen Jahren noch Google als nahezu einzige Suchmaschine beim Zugriff auf Informationen im Web genutzt wurde, nehmen heute die u.a. in Social Media veröffentlichten Meinungen und damit die Vorauswahl sowie Bewertung von Informationen einzelner Experten und Meinungsführer an Bedeutung zu. Aber wie können themenspezifische Informationen nun effizient für konkrete Fragestellungen identifiziert und bedarfsgerecht aufbereitet und visualisiert werden? Diese Studie gibt einen Überblick über semantische Standards und Formate, die Prozesse der semantischen Suche, Methoden und Techniken semantischer Suchsysteme, Komponenten zur Entwicklung semantischer Suchmaschinen sowie den Aufbau bestehender Anwendungen. Die Studie erläutert den prinzipiellen Aufbau semantischer Suchsysteme und stellt Methoden der semantischen Suche vor. Zudem werden Softwarewerkzeuge vorgestellt, mithilfe derer einzelne Funktionalitäten von semantischen Suchmaschinen realisiert werden können. Abschließend erfolgt die Betrachtung bestehender semantischer Suchmaschinen zur Veranschaulichung der Unterschiede der Systeme im Aufbau sowie in der Funktionalität.
  7. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.08
    0.08481644 = product of:
      0.16963288 = sum of:
        0.031385876 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1863,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.070048586 = weight(_text_:methoden in 1863) [ClassicSimilarity], result of:
          0.070048586 = score(doc=1863,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 1863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.036812555 = weight(_text_:der in 1863) [ClassicSimilarity], result of:
          0.036812555 = score(doc=1863,freq=16.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4188313 = fieldWeight in 1863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.031385876 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.031385876 = score(doc=1863,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 1863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.5 = coord(4/8)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
    Footnote
    Der vollständige Text ist als pdf-Datei (491 KB) im Internet zu finden unter www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte als PDF-Datei zur Verfügung
  8. Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007) 0.08
    0.08362767 = product of:
      0.16725534 = sum of:
        0.031385876 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.031385876 = score(doc=2817,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.070048586 = weight(_text_:methoden in 2817) [ClassicSimilarity], result of:
          0.070048586 = score(doc=2817,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 2817, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.034434993 = weight(_text_:der in 2817) [ClassicSimilarity], result of:
          0.034434993 = score(doc=2817,freq=14.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3917808 = fieldWeight in 2817, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
        0.031385876 = weight(_text_:und in 2817) [ClassicSimilarity], result of:
          0.031385876 = score(doc=2817,freq=12.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35989314 = fieldWeight in 2817, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2817)
      0.5 = coord(4/8)
    
    Abstract
    Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
    Content
    Technical Whitepaper - Grundlagen der Informationsgewinnung
  9. Kaizik, A.; Gödert, W.; Oßwald, A.: Evaluation von Subject Gateways des Internet (EJECT) : Projektbericht (2001) 0.08
    0.081940114 = product of:
      0.16388023 = sum of:
        0.033900622 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.033900622 = score(doc=1476,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.070048586 = weight(_text_:methoden in 1476) [ClassicSimilarity], result of:
          0.070048586 = score(doc=1476,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.3435329 = fieldWeight in 1476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.026030406 = weight(_text_:der in 1476) [ClassicSimilarity], result of:
          0.026030406 = score(doc=1476,freq=8.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.29615843 = fieldWeight in 1476, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
        0.033900622 = weight(_text_:und in 1476) [ClassicSimilarity], result of:
          0.033900622 = score(doc=1476,freq=14.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.38872904 = fieldWeight in 1476, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1476)
      0.5 = coord(4/8)
    
    Abstract
    Der Umfang und die Heterogenität des Informationsangebotes erfordert immer differenzierte Methoden und Hilfsmittel für das gezielte und möglichst ballastfreie Auffinden von Informationsquellen im Kontext eines bestimmten Fachgebietes oder einer wissenschaftlichen Disziplin. Um dieses Ziel zu errei-chen, wurden in der letzten Zeit eine Reihe sog. Subject Gateways entwickelt. Bislang liegen weder viele Untersuchungen zur Qualität derartiger Hilfsmittel vor noch ist eine differenzierte Methodik für solche Bewertungen entwickelt worden. Das Projekt Evaluation von Subject Gateways des Internet (EJECT) verfolgte daher die Ziele:· Durch Analyse bereits realisierter Subject Gateways die Verwendungsvielfalt des Begriffes aufzuzeigen und zu einer Präzisierung der Begriffsbildung beizutragen; Einen methodischen Weg zur qualitativen Bewertung von Subject Gateways aufzuzeigen;· Diesen Weg anhand einer Evaluation des Subject Gateways EULER zu testen, das im Rahmen eines EU-Projektes für das Fachgebiet Mathematik entwickelt wurde. Die Resultate der Evaluation werden in dieser Studie ausführlich vorgestellt und es wird aufgezeigt, inwieweit eine Übertragung auf die Bewertung anderer Gateways möglich ist.
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.30
  10. Enzyklopädie im Wandel : Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot (2002) 0.08
    0.08187556 = product of:
      0.16375113 = sum of:
        0.028750567 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.028750567 = score(doc=1882,freq=58.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.03472415 = weight(_text_:der in 1882) [ClassicSimilarity], result of:
          0.03472415 = score(doc=1882,freq=82.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.39507067 = fieldWeight in 1882, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.07152585 = weight(_text_:sprach in 1882) [ClassicSimilarity], result of:
          0.07152585 = score(doc=1882,freq=4.0), product of:
            0.2684176 = queryWeight, product of:
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.039347667 = queryNorm
            0.26647228 = fieldWeight in 1882, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.82169 = idf(docFreq=130, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
        0.028750567 = weight(_text_:und in 1882) [ClassicSimilarity], result of:
          0.028750567 = score(doc=1882,freq=58.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.32967478 = fieldWeight in 1882, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1882)
      0.5 = coord(4/8)
    
    Abstract
    "Enzyklopädie im Wandel: Schmuckstück der Bücherwand, rotierende Scheibe oder Netzangebot?" lautete das Thema der Auftaktveranstaltung, die am 12. Dezember 2001 im Rahmen des Diskussionsforums "Kölner Dialog Informationswissenschaft" an der Fachhochschule Köln stattfand. Enzyklopädien sind stets dem Zeitgeist verpflichtet und im Wandel begriffen. Sie passen sich in ihrer Konzeption den zu erwartenden Bedürfnissen der Benutzer und den produktionstechnischen Möglichkeiten an. Gegenwärtig ist ein Nebeneinander von gedruckten und digitalen Enzyklopädien zu beobachten. Während gedruckte Enzyklopädien die Breite des Wissens zweidimensional erfahrbar machen und für den raschen Zugriff oft weiterhin bevorzugt werden, bieten Enzyklopädien in digitaler Form neben neuen Retrievaltechniken durch multimediale Synergien einen erheblich verbesserten Zugang zu den erläuterten Phänomenen. Die Autoren dieses Bandes setzen sich mit den Ansprüchen auseinander, die an die Konzeption von Enzyklopädien zu Beginn des 21. Jahrhunderts gestellt werden. Die einzelnen Beiträge vermitteln einen Einblick in Entstehung, Umfang und Funktionalitäten der auf der Buchmesse 2001 vorgestellten Neuausgaben der renommierten Nachschlagewerke "Brockhaus multimedial" und "Microsoft Encarta". Abschließend werden die Fragenkomplexe "Beitrag der Enzyklopädie zum Wissenserwerb heute" sowie "Entwicklungsperspektiven und Trägermedien von Enzyklopädien" thematisiert.
    Content
    Enthält die Beiträge: VOLPERS, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit; ANGER, E.: Brockhaus multimedial 2002 auf CD-ROM und DVD-ROM; HILTL, M.: Die Encarta Enzyklopädie Proefessional 2002 von Microsoft; HÄRKÖNEN, S.: Enzyklopädie im Wandel (Podiumsdiskussion)
    Footnote
    Rez. in: B.I.T. online 5(2002) H.3, S.281 (R. Fuhlrott) - Medienwissenschaft. 2003, H.1, S.72-74 (M. Hollender): "Der Sammelband gibt die Beiträge einer gleichnamigen Veranstaltung an der Fachhochschule Köln am 12. Dezember 2001 wieder. - Über enzyklopädisches Wissen verfügen zu wollen, sei in den letzten Jahren, so Helmut Volpers in seiner Einführung, durch den ,Verfall bildungsbürgerlicher Ideale" stark rückläufig gewesen; derzeit aber erlebe die Wertschätzung einer hohen Allgemeinbildung wieder einmal eine - popularisierte und medientaugliche - Renaissance: Die Verfügbarkeit über Faktenwissen eröffne die Chance, in der Flut der Fernsehrateshows zum Millionär zu avancieren. Volpers Beitrag über "Idee und Begriff der Enzyklopädie im Wandel der Zeit" widmet sich ausführlich vor allem Werken von Diderot und D'Alembert, dem Zedler und den frühen Brockhaus-Ausgaben. Sein Text liefert indes keine neuen Erkenntnisse und ist vor allem für Examenskandidaten hilfreich. Der Aufsatz von Volpers erfüllt aber wiederum als einziger der drei Beiträge die Ansprüche, die man an eine wissenschaftliche Veröffentlichung gemeinhin stellt. Die nachfolgenden Texte nämlich, die die Enzyklopädien von Brockhaus und Encarta in der CD-ROM-/DVD-Version präsentieren, stammen nicht von kommerziell unabhängig und wertneutral arbeitenden Verfassern, sondern vom Managing Editor New Media des Brockhaus-Verlages (Eberhard Anger) bzw. vom Chefredakteur der deutschsprachigen Encarta-Redaktion (Michael Hiltl). Demzufolge lesen sich die Beiträge wie eine Presseerklärung der Konzerne bzw. wie eine besonders kundenfreundlich formulierte Bedienungsanleitung für Fortgeschrittene. Von den Veranstaltern hätte man sich als Gegenpart auch eine kritische Stimme gewünscht; die Selbstanpreisungen der Firmenvertreter wie auch die Tendenz der Aussagen verstimmt den Leser, der eine abgewogene Darstellung erwartet hatte, zusehends. Dies beginnt bei der pauschalen Behauptung, der Brockhaus habe die NS-Ära aufgrund seiner Distanz zum Regime unbeschadet überstanden (die Darstellung von Senya Müller: Sprachwörterbücher im Nationalsozialismus: die ideologische Beeinflussung von Duden, Sprach-Brockhaus und anderen Nachschlagewerken während des "Dritten Reichs", Stuttgart 1994, beweist hinsichtlich des Sprach-Brockhauses das Gegenteil) und endet bei der Forderung, Internetinformationen müssten zukünftig mehr und mehr kostenpflichtig werden. Das merkantile Interesse von Anger und Hiltl ist freilich verständlich: Lexikonverlage stehen unter enormem Existenz- und Legitimationsdruck, um den Wettbewerb gegen sekundenschnell via Suchmaschinen kostenfrei erhältliche Informationen nicht zu verlieren. Und tatsächlich haben die internationalen Lexikonverlage in den letzten Jahren enorm aufgerüstet - die Unterschiede zwischen der großväterlich biederen Schrankwandausgabe des Brockhaus' und der Multimediaausgabe sind derart frappierend, dass selbst die unkritische Eigenwerbung der Verlagsrepräsentanten noch zu begeistern vermag (und umso mehr wünscht man sich eine relativierende Gegenstimme!). Die Hymnen der Lexikonverkäufer auf ihre Produkte sollen an dieser Stelle nicht wiederholt werden, wer sich indes mit dem Gedanken trägt, eine moderne Enzyklopädie zu erwerben, dem seien die Referate von Anger und Hiltl als Einstiegslektüre nur zu empfehlen. Wer hätte geahnt, dass die CD-ROMs des Brockhaus 2002 als Dreingabe auch den zweibändigen Brockhaus des Jahres 1906 einschließen! Zumindest soviel ist den Verlagsvertretern und den Kölner Tagungsveranstaltern gelungen: Sie wecken das Interesse an elektronischen lexikalischen Produkten. Kritische Stimmen muss man sich eben an anderer Stelle suchen.
    In regelmäßigen, sehr engen Abständen sind aus dem Netz Aktualisierungen der Enzyklopädien herunterladbar, die die veralteten Einträge automatisch überschreiben. Ungeklärt bleiben in diesem Zusammenhang leider zwei Fragen: Wie soll zukünftig aus derlei Werken wissenschaftlich seriös unter Angabe der Quelle zitiert werden? Aus konventionellen Lexika wird zwar selten zitiert, der Multimedia-Brockhaus umfasst hingegen ein Textvolumen, das mehr als viermal so groß ist wie das der Printausgabe, wodurch es als Quelle also eher infrage kommt. Unbeantwortet bleibt leider auch die wissenschaftshistorische Frage, ob die Entwicklungsstufen des sich täglich wandelnden und aktualisierenden Lexikons auf einem Brockhaus- bzw. Encarta-Archivserver dauerhaft gespeichert werden. Wissenschaftsgeschichte ist zwingend darauf angewiesen, nachweisen zu können, welcher Wissensstand zu welchem Zeitpunkt welchen Bevölkerungsgruppen als Gemeingut bekannt war; die Virtualität der Enzyklopädie als non-book-material macht derlei Studien womöglich bald unmöglich. Der Tagungsband wird unter http://www.fbi.fh-koeln.de/fachbereich/papers/ kabi/index.cfm auch im Netz vorgehalten. Sollten sämtliche Bände der Schriftenreihe Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft über eine derart billige Klebebindung verfügen wie das mir vorliegende Exemplar, gehört die Zukunft wieder ein Stückweit mehr der Netzpublikation: Der Selbstatomisierung des Heftes in drei Dutzend lose Blätter lässt sich so entgehen."
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
  11. Körner, H.G.: Notationssysteme für Dokumentationssprachen und Klassifikationssysteme (1980) 0.08
    0.08149621 = product of:
      0.16299242 = sum of:
        0.029897537 = weight(_text_:und in 1239) [ClassicSimilarity], result of:
          0.029897537 = score(doc=1239,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 1239, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
        0.08172335 = weight(_text_:methoden in 1239) [ClassicSimilarity], result of:
          0.08172335 = score(doc=1239,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 1239, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
        0.021473989 = weight(_text_:der in 1239) [ClassicSimilarity], result of:
          0.021473989 = score(doc=1239,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.24431825 = fieldWeight in 1239, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
        0.029897537 = weight(_text_:und in 1239) [ClassicSimilarity], result of:
          0.029897537 = score(doc=1239,freq=8.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.34282678 = fieldWeight in 1239, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1239)
      0.5 = coord(4/8)
    
    Abstract
    Klassifikationen haben i.a. bei jeder Systemstelle eine Notation, die den Platz im System festlegt und als Kurzbezeichnung dient. Dokumentationssprachen verwenden häufig einen hierarchisch strukturierten Thesaurus, bei dem ebenfalls Notationen eingesetzt werden können. Beim Entwurf von Notationen sollten computer-interne und computer-externe Aspekte berücksichtigt werden. Es wird systematisch dargestellt, welche grundsätzlichen Typen von Notationssysstemen entworfen werden können, u.a. auch die vom Verfasser entwickelten durchgehenden oder sequentiellen Notationen mit Ebenenindikator. Linksbündige sequentielle Notationssysteme sind besonders flexibel, d.h. Einfügungen und andere Veränderungen sind leicht möglich. Die Bewertung von Notationssystemen, an einem Beispiel durchgeführt, geschieht an Hand eines möglichst umfassenden Anforderungskatalogs. Für Entwurfsentscheidungen werden die Methoden der Nutzwertanalyse empfohlen, insbesondere auch bei der Frage, ob Notationen überhaupt eingesetzt werden sollen. Eine weitere Möglichkeit ist, daß Notationen nur auf bestimmten hierarchischen Ebenen verwendet werden
  12. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.08
    0.08059945 = product of:
      0.1611989 = sum of:
        0.021140752 = weight(_text_:und in 1698) [ClassicSimilarity], result of:
          0.021140752 = score(doc=1698,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24241515 = fieldWeight in 1698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.08172335 = weight(_text_:methoden in 1698) [ClassicSimilarity], result of:
          0.08172335 = score(doc=1698,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.40078837 = fieldWeight in 1698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.03719404 = weight(_text_:der in 1698) [ClassicSimilarity], result of:
          0.03719404 = score(doc=1698,freq=12.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4231716 = fieldWeight in 1698, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.021140752 = weight(_text_:und in 1698) [ClassicSimilarity], result of:
          0.021140752 = score(doc=1698,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.24241515 = fieldWeight in 1698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.5 = coord(4/8)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
    Footnote
    Der vollständige Text steht unter http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/ als PDF-Datei zur Verfügung
  13. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.08
    0.079891495 = product of:
      0.15978299 = sum of:
        0.048321716 = weight(_text_:und in 7383) [ClassicSimilarity], result of:
          0.048321716 = score(doc=7383,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 7383, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.034707207 = weight(_text_:der in 7383) [ClassicSimilarity], result of:
          0.034707207 = score(doc=7383,freq=2.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.3948779 = fieldWeight in 7383, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.048321716 = weight(_text_:und in 7383) [ClassicSimilarity], result of:
          0.048321716 = score(doc=7383,freq=4.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.55409175 = fieldWeight in 7383, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=7383)
        0.028432352 = product of:
          0.085297056 = sum of:
            0.085297056 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.085297056 = score(doc=7383,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Date
    22. 2.1997 19:46:30
  14. Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010) 0.07
    0.073706545 = product of:
      0.14741309 = sum of:
        0.030817674 = weight(_text_:und in 4416) [ClassicSimilarity], result of:
          0.030817674 = score(doc=4416,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35337773 = fieldWeight in 4416, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.040861674 = weight(_text_:methoden in 4416) [ClassicSimilarity], result of:
          0.040861674 = score(doc=4416,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.20039418 = fieldWeight in 4416, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.044916075 = weight(_text_:der in 4416) [ClassicSimilarity], result of:
          0.044916075 = score(doc=4416,freq=70.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.5110283 = fieldWeight in 4416, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
        0.030817674 = weight(_text_:und in 4416) [ClassicSimilarity], result of:
          0.030817674 = score(doc=4416,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.35337773 = fieldWeight in 4416, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4416)
      0.5 = coord(4/8)
    
    Abstract
    In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
    Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
  15. Schweins, K.: Methoden zur Erschließung von Filmsequenzen (1997) 0.07
    0.07152183 = product of:
      0.19072488 = sum of:
        0.036988612 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.036988612 = score(doc=1628,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.11674765 = weight(_text_:methoden in 1628) [ClassicSimilarity], result of:
          0.11674765 = score(doc=1628,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.5725548 = fieldWeight in 1628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
        0.036988612 = weight(_text_:und in 1628) [ClassicSimilarity], result of:
          0.036988612 = score(doc=1628,freq=6.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 1628, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1628)
      0.375 = coord(3/8)
    
    Abstract
    Behandelt werden: das Fernseharchiv des WDR, die Stockshot Database des National Film Board of Canada und das Projekt AMPHORE (IWF + GMD)
    Imprint
    Köln : Fachhochschule, Fb Bibliotheks- und Informationswesen
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.5
  16. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.07
    0.069764115 = product of:
      0.13952823 = sum of:
        0.027012663 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.027012663 = score(doc=1076,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.04669906 = weight(_text_:methoden in 1076) [ClassicSimilarity], result of:
          0.04669906 = score(doc=1076,freq=2.0), product of:
            0.20390649 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.039347667 = queryNorm
            0.22902192 = fieldWeight in 1076, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.03880384 = weight(_text_:der in 1076) [ClassicSimilarity], result of:
          0.03880384 = score(doc=1076,freq=40.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.44148692 = fieldWeight in 1076, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
        0.027012663 = weight(_text_:und in 1076) [ClassicSimilarity], result of:
          0.027012663 = score(doc=1076,freq=20.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.3097467 = fieldWeight in 1076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1076)
      0.5 = coord(4/8)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  17. Wehling, E.: Framing-Manual : Unser gemeinsamer freier Rundfunk ARD (2019) 0.07
    0.06645387 = product of:
      0.13290773 = sum of:
        0.04402525 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.04402525 = score(doc=4997,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.035972122 = weight(_text_:der in 4997) [ClassicSimilarity], result of:
          0.035972122 = score(doc=4997,freq=22.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.40926933 = fieldWeight in 4997, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.04402525 = weight(_text_:und in 4997) [ClassicSimilarity], result of:
          0.04402525 = score(doc=4997,freq=34.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.50482535 = fieldWeight in 4997, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4997)
        0.00888511 = product of:
          0.02665533 = sum of:
            0.02665533 = weight(_text_:22 in 4997) [ClassicSimilarity], result of:
              0.02665533 = score(doc=4997,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19345059 = fieldWeight in 4997, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4997)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Die ARD hat ein Gutachten in Auftrag gegeben, um die eigene Kommunikation zu verbessern. Das Gutachten wurde bisher nicht veröffentlicht, ist aber bereits Teil einer öffentlichen Debatte. Wir veröffentlichen das Gutachten, damit sich alle Beitragszahlende aus der Originalquelle informieren können und an der Debatte informierter teilhaben können. [Quelle: https://netzpolitik.org/2019/wir-veroeffentlichen-das-framing-gutachten-der-ard/].
    Content
    Vgl. auch den Kommentar in Open Password , Nr.157 vom 22.02.2019: "Vor wenigen Tagen wurde das "Framing-Manual" der Linguistin Elisabeth Wehling bekannt, das sie für 120.000 Euro für die ARD erarbeitet hat und fortlaufend in Workshops für Mitarbeiter eingesetzt wird. Da aus Frau Wehlings Sicht "objektives, faktenbegründetes und rationales Denken" nicht möglich ist, kann es im öffentlichen Streit der Meinungen nur mehr darum gehen, die eigenen Sprachregelungen durchzusetzen und die Rezipienten über Emotionalisierungen und implizite moralische Bewertungen über den Tisch zu ziehen. So sollten Bürger, die den Zwangsbeitrag für Rundfunk und Fernsehen nicht zahlen wollen, als "demokratieferne, wortbrüchige und illoyale Beitragshinterzieher" gebrandmarkt werden und sind "unserem gemeinsamen freien Rundfunk ARD" die "medienkapitalistischen Heuschrecken" entgegenzustellen. Derweil berichtet Meedia von einem zweiten Fall Relotius, einem freien Journalisten, der für die Süddeutsche Zeitung, die Zeit und den Spiegel geschrieben hat und soeben mit einer frei erfundenen Geschichte von der SZ überführt wurde. Das "Framing-Manual" erscheint mir als ein noch größerer Skandal als der Fall Claas Relotius mit seinen vielen erfundenen Geschichten im Spiegel und praktisch der gesamten weiteren "Qualitätspresse", weil die Spitzen der ARD und mit ihnen die nachgeordneten Strukturen das Manual von Frau Wehling willkommen geheißen haben und weiterhin zur Indoktrination ihrer Mitarbeiter verwenden. Fake News und die damit verbundene Kriegserklärung an Wahrheit und Wissenschaft kommen nicht von Donald Trump, sie werden selbst generiert und breiten sich ungehindert mit Wissen und Willen der Verantwortlichen in unserem "Qualitätsfernsehen" aus." (W. Bredemeier)
    Date
    22. 2.2019 9:26:20
  18. Hochschule im digitalen Zeitalter : Informationskompetenz neu begreifen - Prozesse anders steuern (2012) 0.06
    0.06395285 = product of:
      0.1279057 = sum of:
        0.039145067 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.039145067 = score(doc=506,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.042507473 = weight(_text_:der in 506) [ClassicSimilarity], result of:
          0.042507473 = score(doc=506,freq=48.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.4836247 = fieldWeight in 506, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.039145067 = weight(_text_:und in 506) [ClassicSimilarity], result of:
          0.039145067 = score(doc=506,freq=42.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.44886562 = fieldWeight in 506, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=506)
        0.007108088 = product of:
          0.021324264 = sum of:
            0.021324264 = weight(_text_:22 in 506) [ClassicSimilarity], result of:
              0.021324264 = score(doc=506,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.15476047 = fieldWeight in 506, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=506)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Die rasanten Veränderungen der Kommunikation und der daraus resultierende soziale und kulturelle Wandel betreffen auch die Hochschulen in besonderer Weise. Hochschulleitungen haben hier bereits schon reagiert, sie stehen aber weiterhin vor der Herausforderung, auf die Veränderungen zu reagieren und entsprechende Maßnahmen zu ergreifen. Es bedarf nicht nur einer Harmonisierung des Informationsmanagements und der Informationsinfrastruktur, sondern integrativ auch der Stärkung der Informationskompetenz auf allen Ebenen der Organisation. Da diese Herausforderung das gesamte System Hochschule betrifft, wird der Begriff der Informationskompetenz hier gegenüber seiner herkömmlichen Verwendung deutlich ausgeweitet: Es wird nicht nur die akademische Informationskompetenz betrachtet, die in Lehre und Forschung zum Tragen kommt, sondern auch die organisationsbezogene Informationskompetenz, die sich auf alle hochschulinternen Abläufe bezieht. Zugleich geht es in der Empfehlung nicht, wie es der Titelbegriff "Hochschule im digitalen Zeitalter" nahe legen könnte, um Konzepte wie das einer Netzhochschule.
    Zur Stärkung der Informationskompetenz der Studierenden ist es erforderlich, dass entsprechende Lehrangebote ausgebaut, stärker als bisher curricular verankert und möglichst flächendeckend angeboten werden. Die unterschiedlichen, von verschiedenen Akteuren zur Verfügung gestellten Lehrangebote zur Vermittlung von Informationskompetenz sollten mehr als bisher aufeinander abgestimmt und miteinander verschränkt werden. Um die Informationskompetenz aller Lehrenden zu sichern, sollten diese mehr als bisher entsprechende Fortbildungs- und Trainingsangebote wahrnehmen. Die Hochschulleitungen sollten dafür Sorge tragen, dass entsprechende attraktive Angebote zur Verfügung gestellt werden. Auch die Informationskompetenz der Forschenden muss ausgebaut werden, indem entsprechende Qualifizierungsangebote wahrgenommen und Qualifikationsmaßnahmen stärker als bisher z. B. in den Curricula der Graduierten- und Postgraduiertenausbildung verankert werden. Forschende können ihre Informationskompetenz zugleich im Rahmen von Kompetenznetzwerken stärken. Dies gilt es entsprechend seitens der Hochschulleitungen zu unterstützen. Die Hochschulleitungen sollten Strukturen und Prozesse im Rahmen eines hochschulinternen "Governance"-Prozesses verändern können. Innerhalb der Hochschulleitung muss daher eine Person für die Themen "Informationsinfrastruktur" und "Stärkung der Informationskompetenz" verantwortlich und Ansprechpartner sein. Was die Dienstleistungen angeht, wird insbesondere empfohlen, dass die Mitarbeiterinnen und Mitarbeiter der Hochschulbibliotheken und Rechenzentren ihre Kompetenzen erweitern, um die Forscherinnen und Forscher beim Datenmanagement besser unterstützen zu können.
    Die HRK sieht sich künftig für die bundesweite strategische Koordination des Handlungsfeldes "Informationskompetenz" verantwortlich. Um das Zusammenwirken an der Schnittstelle zwischen den Fakultäten bzw. Fachbereichen einerseits und den Bibliotheken und Rechenzentren andererseits zu verbessern, richtet die HRK eine Arbeitsgruppe ein, die Prozesse an der o. g. Schnittstelle jeweils mit Blick auf ausgewählte Fächer in regelmäßigen Zeitabständen begleitet und Vorschläge zur Verbesserung der Zusammenarbeit formuliert. Die Politik in Bund und Ländern sollte ihren Anteil am Aufbau solcher Strukturen leisten und die notwendigen Maßnahmen finanziell unterstützen.
    Date
    8.12.2012 17:22:26
    Issue
    Entschließung der 13. Mitgliederversammlung der HRK am 20. November 2012 in Göttingen.
  19. Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur (2011) 0.06
    0.061722178 = product of:
      0.123444356 = sum of:
        0.036988612 = weight(_text_:und in 4291) [ClassicSimilarity], result of:
          0.036988612 = score(doc=4291,freq=24.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 4291, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.040582027 = weight(_text_:der in 4291) [ClassicSimilarity], result of:
          0.040582027 = score(doc=4291,freq=28.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.46171808 = fieldWeight in 4291, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.036988612 = weight(_text_:und in 4291) [ClassicSimilarity], result of:
          0.036988612 = score(doc=4291,freq=24.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.42413816 = fieldWeight in 4291, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4291)
        0.00888511 = product of:
          0.02665533 = sum of:
            0.02665533 = weight(_text_:22 in 4291) [ClassicSimilarity], result of:
              0.02665533 = score(doc=4291,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.19345059 = fieldWeight in 4291, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=4291)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Seit den 1970/80er Jahren unterstützen sechs Verbundzentralen die Dienstleistungen der Bibliotheken in Deutschland. Mit lokalen, regionalen und überregionalen Services leisten sie einen wichtigen Beitrag für ein funktionierendes nationales Bibliothekssystem. Neue Technologien und globale Vernetzung verändern jedoch die Informationslandschaft mit hoher Dynamik. Um den Herausforderungen in Zukunft gewachsen zu sein, empfehlen die Deutsche Forschungsgemeinschaft (DFG) und der Wissenschaftsrat (WR) eine strategische Neuausrichtung und eine Neuordnung der Verbundsysteme.
    Content
    "Empfehlungen zur Optimierung der Informationsinfrastruktur Verbundübergreifende Entwicklung bedarfsorientierter Services Angestrebt werden sollten stringente, verbundübergreifende arbeitsteilige Strukturen bei Betrieb und Entwicklung der gegenwärtigen wie der zukünftigen Dienste, um unnötige Mehrfacharbeit zu vermeiden und die Durchsetzung einheitlicher Standards zu erleichtern. Das ist technisch machbar und organisatorisch auch im föderalen Umfeld denkbar wie andere Beispiele (z.B. DFN) zeigen. Einführung neuer Steuerungsmechanismen Das derzeitige Finanzvolumen der Länder für Informationsservices (Finanzzuweisung an Verbundzentralen) muss erhalten bleiben und weiterhin die den bisherigen Regelungen entsprechenden Steigerungen erfahren. Gleichzeitig müssen behutsam, aber konsequent neue Steuerungsmechanismen eingeführt werden, die die Verbünde im höheren Maße als bisher in die Lage versetzen, neue Entwicklungen bedarfsorientiert aufzugreifen und verlässliche Dienste aufzubauen. Zur Steuerung sollten Aufsichtsgremien im Sinne von "Beiräten" vergleichbar den Beiräten der Informationsdienstleister in der WGL eingesetzt werden. Wege zu einer Neuausrichtung der Verbünde Neben den empfohlenen politisch-administrativen Maßnahmen erscheint ein attraktiv dimensioniertes Förderprogramm der DFG zur "Neuausrichtung überregionaler Informationsservices" und "Weiterentwicklung der Bibliotheksverbünde als Teil der überregionalen Informationsinfrastruktur" [Arbeitstitel] geeignet, den notwendigen Strukturwandel hin zu einem arbeitsteiligen, verbundübergreifenden Diensteangebot anzustoßen und zu koordinieren."
    Date
    7. 2.2011 19:52:22
    Editor
    Deutsche Forschungsgemeinschaft / Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme
  20. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.06
    0.057580616 = product of:
      0.11516123 = sum of:
        0.038201675 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.038201675 = score(doc=1484,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.024541702 = weight(_text_:der in 1484) [ClassicSimilarity], result of:
          0.024541702 = score(doc=1484,freq=4.0), product of:
            0.087893516 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.039347667 = queryNorm
            0.27922085 = fieldWeight in 1484, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.038201675 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.038201675 = score(doc=1484,freq=10.0), product of:
            0.087208875 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.039347667 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
        0.014216176 = product of:
          0.042648528 = sum of:
            0.042648528 = weight(_text_:22 in 1484) [ClassicSimilarity], result of:
              0.042648528 = score(doc=1484,freq=2.0), product of:
                0.13778883 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.039347667 = queryNorm
                0.30952093 = fieldWeight in 1484, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1484)
          0.33333334 = coord(1/3)
      0.5 = coord(4/8)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
    Date
    13. 9.2014 14:45:22

Authors

Languages

  • d 113
  • e 31

Types

  • el 22
  • s 4
  • x 2
  • m 1
  • More… Less…