Search (5 results, page 1 of 1)

  • × author_ss:"Krause, J."
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Krause, J.: Software-Ergonomie (2004) 0.01
    0.006590606 = product of:
      0.06590606 = sum of:
        0.06590606 = weight(_text_:schutz in 2932) [ClassicSimilarity], result of:
          0.06590606 = score(doc=2932,freq=2.0), product of:
            0.20656188 = queryWeight, product of:
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.028611459 = queryNorm
            0.31906208 = fieldWeight in 2932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.2195506 = idf(docFreq=87, maxDocs=44218)
              0.03125 = fieldNorm(doc=2932)
      0.1 = coord(1/10)
    
    Abstract
    Menschen- versus Technikzentrierung ist die eigentliche Leitlinie, die das Aufkommen der Ergonomie als wissenschaftliche Disziplin bestimmte. Die industrielle Revolution hatte mit ihrem ökonomiefördernden Einsatz von Maschinen dazu geführt, dass Menschen nur noch Lücken füllten, die die technologischen Werkzeuge offen ließen. Die Maschinen standen im Vordergrund, der Arbeitnehmer hatte sich anzupassen. Die Folgen traten als gesundheitliche Schädigungen zutage. Deshalb begann man über Gestaltungsrichtlinien für die Bedienung der technischen Werkzeuge und den Ablauf der Arbeitsprozesse nachzudenken und sie zum Schutz der Menschen rechtsverbindlich festzulegen. Mit dem Aufkommen der Computer wurden diese Überlegungen auf die neuen Werkzeuge übertragen (Hardware-Ergonomie). Die klassische Software-Ergonomie (international human factors-Forschung) tat dann im Kern nichts anderes, als den Schutzgedanken vom Körper auf den Geist des Menschen, von den anthropometrischen und psychologischen Faktoren auf die menschliche Informationsverarbeitung auszudehnen. Arbeitswissenschaft, Psychologie und Informatik verbinden sich zu einem neuen Wissenschaftsfeld, das den Menschen zum Ausgangspunkt nimmt, nicht die Technik. Negative Auswirkungen wie unnötige geistige Belastungen, hoher Einarbeitungsaufwand, erzwungenes Arbeiten gegen die gewohnten und natürlichen Arbeitsweisen, sinnlose Teilarbeiten als Anpassung an programmtechnische Effizienzüberlegungen, geistige Fließbandarbeit und ähnliches sollen vermieden werden. Benutzerfreundlichkeit und Effizienz der Bedienung werden zu Kernbegriffen der Softwareergonomie. Nicht der Mensch soll sich an den Computer anpassen, sondern der Computer an die Bedürfnisse, Fähigkeiten und Eigenschaften des Menschen. Auch wenn die Softwareergonomie erst in den achtziger Jahren stärker Fuß fasst, induziert durch das Paradigma der grafischen Benutzungsoberflächen, gibt es bereits 20 Jahre vorher ein eigenständiges Paradigma, das die Forderung nach einem benutzerfreundlichen Zugang nicht visuell-grafisch, sondern sprachlich interpretiert, die natürlichsprachlichen Benutzungsoberflächen. Sie entstanden schwerpunktmäßig in einer eigenen Teildisziplin, der Computerlinguistik, wurden aber schon immer auch der human factors-Forschung zugeordnet.
  2. Krause, J.: Semantic heterogeneity : comparing new semantic web approaches with those of digital libraries (2008) 0.01
    0.0060695536 = product of:
      0.060695533 = sum of:
        0.060695533 = weight(_text_:web in 1908) [ClassicSimilarity], result of:
          0.060695533 = score(doc=1908,freq=26.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.65002745 = fieldWeight in 1908, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1908)
      0.1 = coord(1/10)
    
    Abstract
    Purpose - To demonstrate that newer developments in the semantic web community, particularly those based on ontologies (simple knowledge organization system and others) mitigate common arguments from the digital library (DL) community against participation in the Semantic web. Design/methodology/approach - The approach is a semantic web discussion focusing on the weak structure of the Web and the lack of consideration given to the semantic content during indexing. Findings - The points criticised by the semantic web and ontology approaches are the same as those of the DL "Shell model approach" from the mid-1990s, with emphasis on the centrality of its heterogeneity components (used, for example, in vascoda). The Shell model argument began with the "invisible web", necessitating the restructuring of DL approaches. The conclusion is that both approaches fit well together and that the Shell model, with its semantic heterogeneity components, can be reformulated on the semantic web basis. Practical implications - A reinterpretation of the DL approaches of semantic heterogeneity and adapting to standards and tools supported by the W3C should be the best solution. It is therefore recommended that - although most of the semantic web standards are not technologically refined for commercial applications at present - all individual DL developments should be checked for their adaptability to the W3C standards of the semantic web. Originality/value - A unique conceptual analysis of the parallel developments emanating from the digital library and semantic web communities.
    Footnote
    Beitrag eines Themenheftes "Digital libraries and the semantic web: context, applications and research".
    Theme
    Semantic Web
  3. Krause, J.: Standardisierung und Heterogenität (2004) 0.01
    0.005590722 = product of:
      0.02795361 = sum of:
        0.020200694 = weight(_text_:web in 2954) [ClassicSimilarity], result of:
          0.020200694 = score(doc=2954,freq=2.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.21634221 = fieldWeight in 2954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.046875 = fieldNorm(doc=2954)
        0.0077529154 = product of:
          0.023258746 = sum of:
            0.023258746 = weight(_text_:22 in 2954) [ClassicSimilarity], result of:
              0.023258746 = score(doc=2954,freq=2.0), product of:
                0.10019246 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.028611459 = queryNorm
                0.23214069 = fieldWeight in 2954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2954)
          0.33333334 = coord(1/3)
      0.2 = coord(2/10)
    
    Abstract
    Standardisierung und Normierung sind einer der Grundpfeiler traditioneller Inhaltserschließung von Bibliotheken und fachbezogenen Informationszentren. Metadaten-Aktivitäten wie die Dublin Core Initiative greifen diese grundsätzliche Vorgehensweise für das WWW in erneuerter Form auf. Sie bildet auch das Fundament des Paradigmas von "Publizieren im Web". Gleichzeitig gibt es aber klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für digitale Bibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und denen einer neu verstandenen Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
    Date
    5. 4.2013 10:22:26
  4. Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006) 0.01
    0.0050501735 = product of:
      0.050501734 = sum of:
        0.050501734 = weight(_text_:web in 6061) [ClassicSimilarity], result of:
          0.050501734 = score(doc=6061,freq=18.0), product of:
            0.0933738 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.028611459 = queryNorm
            0.5408555 = fieldWeight in 6061, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
      0.1 = coord(1/10)
    
    Abstract
    The middle of the 1990s are coined by the increased enthusiasm for the possibilities of the WWW, which has only recently deviated - at least in relation to scientific information - for the differentiated measuring of its advantages and disadvantages. Web Information Retrieval originated as a specialized discipline with great commercial significance (for an overview see Lewandowski 2005). Besides the new technological structure that enables the indexing and searching (in seconds) of unimaginable amounts of data worldwide, new assessment processes for the ranking of search results are being developed, which use the link structures of the Web. They are the main innovation with respect to the traditional "mother discipline" of Information Retrieval. From the beginning, link structures of Web pages are applied to commercial search engines in a wide array of variations. From the perspective of scientific information, link topology based approaches were in essence trying to solve a self-created problem: on the one hand, it quickly became clear that the openness of the Web led to an up-tonow unknown increase in available information, but this also caused the quality of the Web pages searched to become a problem - and with it the relevance of the results. The gatekeeper function of traditional information providers, which narrows down every user query to focus on high-quality sources was lacking. Therefore, the recognition of the "authoritativeness" of the Web pages by general search engines such as Google was one of the most important factors for their success.
    Theme
    Semantic Web
  5. Krause, J.: Current research information as part of digital libraries and the heterogeneity problem : integrated searches in the context of databases with different content analyses (2002) 0.00
    5.2155275E-4 = product of:
      0.0052155275 = sum of:
        0.0052155275 = product of:
          0.015646582 = sum of:
            0.015646582 = weight(_text_:29 in 3593) [ClassicSimilarity], result of:
              0.015646582 = score(doc=3593,freq=2.0), product of:
                0.10064617 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.028611459 = queryNorm
                0.15546128 = fieldWeight in 3593, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.03125 = fieldNorm(doc=3593)
          0.33333334 = coord(1/3)
      0.1 = coord(1/10)
    
    Source
    Gaining insight from research information (CRIS2002): Proceedings of the 6th International Conference an Current Research Information Systems, University of Kassel, August 29 - 31, 2002. Eds: W. Adamczak u. A. Nase