Search (15 results, page 1 of 1)

  • × year_i:[2000 TO 2010}
  • × author_ss:"Krause, J."
  1. Krause, J.: Standardisierung und Heterogenität (2004) 0.04
    0.03513486 = product of:
      0.07026972 = sum of:
        0.0075724614 = weight(_text_:in in 2954) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=2954,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 2954, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2954)
        0.04495366 = weight(_text_:und in 2954) [ClassicSimilarity], result of:
          0.04495366 = score(doc=2954,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.46462005 = fieldWeight in 2954, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2954)
        0.017743597 = product of:
          0.035487194 = sum of:
            0.035487194 = weight(_text_:22 in 2954) [ClassicSimilarity], result of:
              0.035487194 = score(doc=2954,freq=2.0), product of:
                0.15286934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043654136 = queryNorm
                0.23214069 = fieldWeight in 2954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2954)
          0.5 = coord(1/2)
      0.5 = coord(3/6)
    
    Abstract
    Standardisierung und Normierung sind einer der Grundpfeiler traditioneller Inhaltserschließung von Bibliotheken und fachbezogenen Informationszentren. Metadaten-Aktivitäten wie die Dublin Core Initiative greifen diese grundsätzliche Vorgehensweise für das WWW in erneuerter Form auf. Sie bildet auch das Fundament des Paradigmas von "Publizieren im Web". Gleichzeitig gibt es aber klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für digitale Bibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und denen einer neu verstandenen Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
    Date
    5. 4.2013 10:22:26
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  2. Krause, J.; Niggemann, E.; Schwänzl, R.: Beispiel: Virtuelle Fachbibliotheken : Normierung und Standardisierung in sich verändernden Kontexten (2003) 0.02
    0.018581204 = product of:
      0.05574361 = sum of:
        0.008834538 = weight(_text_:in in 1356) [ClassicSimilarity], result of:
          0.008834538 = score(doc=1356,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 1356, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1356)
        0.04690907 = weight(_text_:und in 1356) [ClassicSimilarity], result of:
          0.04690907 = score(doc=1356,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.4848303 = fieldWeight in 1356, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1356)
      0.33333334 = coord(2/6)
    
    Abstract
    Bei der Diskussion um Standardisierungsbemühungen in den Bibliotheken, Archiven, den Fachdatenbanken und den Informationen auf WWW-Servern wissenschaftlicher Institute gibt es klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für Virtuelle Fachbibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.1, S.19-28
  3. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.02
    0.015926747 = product of:
      0.047780238 = sum of:
        0.0075724614 = weight(_text_:in in 2259) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=2259,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 2259, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
        0.040207777 = weight(_text_:und in 2259) [ClassicSimilarity], result of:
          0.040207777 = score(doc=2259,freq=16.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.41556883 = fieldWeight in 2259, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Entwicklungsperspektive für den Bereich wissenschaftlicher Information sind innovative, integrierende Fachportale, die in einem Wissenschaftsportal zusammengefasst werden und die allgemeinen, fachübergreifenden Zugänge der Bibliotheken mit spezifischen Fachzugängen verbinden. In dieser Struktur kann der Kunde mit qualitativ hochwertigen Such- und Selektionsinstrumenten auf wissenschaftsrelevante Informationen (Literaturnachweise, Experten und Forschungsreferenzen, Volltexte, Materialien, Daten, Fakten, Linklisten etc.) zugreifen. Sowohl theoriegeleitete Analysen und Bestandsaufnahmen der wissenschaftlichen Informationslandschaft als auch die Ergebnisse der neueren Benutzerumfragen zum Informationsverhalten und zum -bedarf von Wissenschaftlern weisen auf die Wünschbarkeit solch einer Entwicklung hin. Heute ist ein weitgehender Konsens über das anzustrebende Ziel erreicht. Die Herausforderung für die Weiterentwicklung ist somit nicht die Akzeptanz der angestrebten Zielvorstellung, sondern die Frage, wie sie zu erreichen ist. Die im Folgenden diskutierte Entwicklung von bilateralen Transferkomponenten zur Behandlung semantischer Heterogenität zwischen Dokumentensammlungen mit unterschiedlicher Inhaltserschließung zeigt für einen wesentlichen Teil der Frage nach dem »Wie« der Zielerreichung eine tragfähige Lösungsstrategie auf. Sie wird theoretisch und praktisch konkretisiert, der Entwicklungsstand beschrieben und die konkreten Einsatzmöglichkeiten werden aufgezeigt.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.2, S.76-89
  4. Krause, J.: Information in den Sozialwissenschaften (2004) 0.01
    0.014308709 = product of:
      0.042926125 = sum of:
        0.010096614 = weight(_text_:in in 2968) [ClassicSimilarity], result of:
          0.010096614 = score(doc=2968,freq=16.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 2968, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2968)
        0.032829512 = weight(_text_:und in 2968) [ClassicSimilarity], result of:
          0.032829512 = score(doc=2968,freq=24.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.33931053 = fieldWeight in 2968, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2968)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Informationswissenschaft, die sich am klarsten über ihren Informationsbegriff von ihren Nachbardisziplinen absetzt, ist ausgehend von der Zeit ihrer fruchtbarsten Definitionsphase in den siebziger und achtziger Jahren eng mit den Sozialwissenschaften verbunden. Welches ihr Anteil an der Informationswissenschaft ist, und - umgekehrt - wie der Informationsbegriff und die damit verbundenen Problemstellungen sich in den heutigen Sozialwissenschaften-vor allem in der Soziologie -widerspiegeln, das soll im Folgenden geklärt werden. Wersig dient hierbei als Ausgangspunkt. Er behandelte mit seiner Informationssoziologie vor dreißig Jahren - wenn auch sehr zeitbezogen-bis heute gültige Weichenstellungen. Für eine Sicht aus dem Blickwinkel der Soziologie bietet sich die Diskussion um die Informationsgesellschaft an, die mit Castells den bisher klarsten theoretisch-methodischen Ausdruck fand. Im Kern geht es bei diesen Fragen immer um den "praktischsten" und ertragreichsten Blickwinkel auf die Gestaltung von Informationssystemen und deren Folgen für uns alle, die wir die Gesellschaft im soziologischen Sinn bilden. Es geht aber auch um wissenschaftsorganisatorische Ansprüche und Abgrenzungen. Gegenüber der technischen und informationstheoretischen Sicht auf Information verwenden Informationswissenschaftler kommunikative Vorgänge als Ausgangspunkt einer Begriffsklärung (von Daten, Information, Wissen) und definieren für Information einen "pragmatischen Primat", um für ihren zentralen Begriff einen eigenständigen Ansatz als Leitprinzip der Forschung zu gewinnen. Information im Sinne der Informationswissenschaft entsteht erst benutzerseitig in einer spezifischen Anwendungssituation (vgl. Kap. A 1). Kuhlen, auf den die programmatische Formel "Information ist Wissen in Aktion" zurückgeht, weist darauf hin, dass die Informationswissenschaft "claims to reflect upon the use of information in social environments". Er will "people make sensitive to the fact that information is, above and beyond its technical or computational aspects, a social phenomenon". Aber was genau soll das bedeuten, vor allem für die praktische Entwicklungs- und Forschungsarbeit? Wo hört die Informationswissenschaft auf und wo beginnen die Sozialwissenschaften, speziell die Soziologie? Wie lassen sich ihre fachspezifischen Sichtweisen der Informationsgesellschaft aufeinander beziehen?
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  5. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.01
    0.014131139 = product of:
      0.042393416 = sum of:
        0.0075724614 = weight(_text_:in in 1863) [ClassicSimilarity], result of:
          0.0075724614 = score(doc=1863,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.12752387 = fieldWeight in 1863, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
        0.034820955 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.034820955 = score(doc=1863,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.35989314 = fieldWeight in 1863, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.33333334 = coord(2/6)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  6. Krause, J.: Heterogenität und Integration : Zur Weiterentwicklung von Inhaltserschließung und Retrieval in sich veränderten Kontexten (2001) 0.01
    0.013315789 = product of:
      0.03994737 = sum of:
        0.010929906 = weight(_text_:in in 6071) [ClassicSimilarity], result of:
          0.010929906 = score(doc=6071,freq=12.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18406484 = fieldWeight in 6071, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
        0.029017461 = weight(_text_:und in 6071) [ClassicSimilarity], result of:
          0.029017461 = score(doc=6071,freq=12.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.29991096 = fieldWeight in 6071, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6071)
      0.33333334 = coord(2/6)
    
    Abstract
    As an important support tool in science research, specialized information systems are rapidly changing their character. The potential for improvement compared with today's usual systems is enormous. This fact will be demonstrated by means of two problem complexes: - WWW search engines, which were developed without any government grants, are increasingly dominating the scene. Does the WWW displace information centers with their high quality databases? What are the results we can get nowadays using general WWW search engines? - In addition to the WWW and specialized databases, scientists now use WWW library catalogues of digital libraries, which combine the catalogues from an entire region or a country. At the same time, however, they are faced with highly decentralized heterogeneous databases which contain the widest range of textual sources and data, e.g. from surveys. One consequence is the presence of serious inconsistencies in quality, relevance and content analysis. Thus, the main problem to be solved is as follows: users must be supplied with heterogeneous data from different sources, modalities and content development processes via a visual user interface without inconsistencies in content development, for example, seriously impairing the quality of the search results, e. g. when phrasing their search inquiry in the terminology to which they are accustomed
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Krause, J.: Sacherschließung in virtuellen Bibliotheken : Standardisierung versus Heterogenität (2000) 0.01
    0.01304996 = product of:
      0.03914988 = sum of:
        0.015457222 = weight(_text_:in in 6070) [ClassicSimilarity], result of:
          0.015457222 = score(doc=6070,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.260307 = fieldWeight in 6070, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
        0.02369266 = weight(_text_:und in 6070) [ClassicSimilarity], result of:
          0.02369266 = score(doc=6070,freq=2.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24487628 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
      0.33333334 = coord(2/6)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.77
    Source
    Grenzenlos in die Zukunft: 89. Deutscher Bibliothekartag in Freiburg im Breisgau 1999. Hrsg.: M. Rützel-Banz
  8. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.01
    0.01247439 = product of:
      0.037423167 = sum of:
        0.013968632 = weight(_text_:in in 1698) [ClassicSimilarity], result of:
          0.013968632 = score(doc=1698,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.23523843 = fieldWeight in 1698, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
        0.023454536 = weight(_text_:und in 1698) [ClassicSimilarity], result of:
          0.023454536 = score(doc=1698,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24241515 = fieldWeight in 1698, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.33333334 = coord(2/6)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht
  9. Krause, J.: Software-Ergonomie (2004) 0.01
    0.012050665 = product of:
      0.036151994 = sum of:
        0.0061828885 = weight(_text_:in in 2932) [ClassicSimilarity], result of:
          0.0061828885 = score(doc=2932,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1041228 = fieldWeight in 2932, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=2932)
        0.029969105 = weight(_text_:und in 2932) [ClassicSimilarity], result of:
          0.029969105 = score(doc=2932,freq=20.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.3097467 = fieldWeight in 2932, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2932)
      0.33333334 = coord(2/6)
    
    Abstract
    Menschen- versus Technikzentrierung ist die eigentliche Leitlinie, die das Aufkommen der Ergonomie als wissenschaftliche Disziplin bestimmte. Die industrielle Revolution hatte mit ihrem ökonomiefördernden Einsatz von Maschinen dazu geführt, dass Menschen nur noch Lücken füllten, die die technologischen Werkzeuge offen ließen. Die Maschinen standen im Vordergrund, der Arbeitnehmer hatte sich anzupassen. Die Folgen traten als gesundheitliche Schädigungen zutage. Deshalb begann man über Gestaltungsrichtlinien für die Bedienung der technischen Werkzeuge und den Ablauf der Arbeitsprozesse nachzudenken und sie zum Schutz der Menschen rechtsverbindlich festzulegen. Mit dem Aufkommen der Computer wurden diese Überlegungen auf die neuen Werkzeuge übertragen (Hardware-Ergonomie). Die klassische Software-Ergonomie (international human factors-Forschung) tat dann im Kern nichts anderes, als den Schutzgedanken vom Körper auf den Geist des Menschen, von den anthropometrischen und psychologischen Faktoren auf die menschliche Informationsverarbeitung auszudehnen. Arbeitswissenschaft, Psychologie und Informatik verbinden sich zu einem neuen Wissenschaftsfeld, das den Menschen zum Ausgangspunkt nimmt, nicht die Technik. Negative Auswirkungen wie unnötige geistige Belastungen, hoher Einarbeitungsaufwand, erzwungenes Arbeiten gegen die gewohnten und natürlichen Arbeitsweisen, sinnlose Teilarbeiten als Anpassung an programmtechnische Effizienzüberlegungen, geistige Fließbandarbeit und ähnliches sollen vermieden werden. Benutzerfreundlichkeit und Effizienz der Bedienung werden zu Kernbegriffen der Softwareergonomie. Nicht der Mensch soll sich an den Computer anpassen, sondern der Computer an die Bedürfnisse, Fähigkeiten und Eigenschaften des Menschen. Auch wenn die Softwareergonomie erst in den achtziger Jahren stärker Fuß fasst, induziert durch das Paradigma der grafischen Benutzungsoberflächen, gibt es bereits 20 Jahre vorher ein eigenständiges Paradigma, das die Forderung nach einem benutzerfreundlichen Zugang nicht visuell-grafisch, sondern sprachlich interpretiert, die natürlichsprachlichen Benutzungsoberflächen. Sie entstanden schwerpunktmäßig in einer eigenen Teildisziplin, der Computerlinguistik, wurden aber schon immer auch der human factors-Forschung zugeordnet.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  10. Krause, J.; Mayr, P.: Allgemeiner Bibliothekszugang und Varianten der Suchtypologie : Konsequenzen für die Modellbildung in vascoda (2007) 0.01
    0.010763025 = product of:
      0.032289073 = sum of:
        0.008834538 = weight(_text_:in in 5998) [ClassicSimilarity], result of:
          0.008834538 = score(doc=5998,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.14877784 = fieldWeight in 5998, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5998)
        0.023454536 = weight(_text_:und in 5998) [ClassicSimilarity], result of:
          0.023454536 = score(doc=5998,freq=4.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.24241515 = fieldWeight in 5998, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5998)
      0.33333334 = coord(2/6)
    
    Abstract
    Der Arbeitsbericht konzentriert sich zunächst auf Integrationsmöglichkeiten des Dreiländerkatalogs (DLK), der prototypisch für fachübergreifende Bibliothekskataloge (Allgemeinzugang) in vascoda steht. Der Bericht geht auf interne Designvarianten ein, welche Grundüberlegungen zum sogenannten Allgemeinzugang bebildern. Abschnitt 2 befasst sich mit Vorschlägen zur Erweiterung der Suchtypologie von vascoda. Eine Änderung der fachgebietsorientierten Grundkonzeption von vascoda lässt sich weder aus der Literatursichtung noch aus der vascoda-internen Diskussion anlässlich der Contentintegration von DLK und der Einführung der FAST-Suchmaschinentechnologie für vascoda-Teilmengen ableiten.
  11. Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006) 0.01
    0.010165347 = product of:
      0.030496038 = sum of:
        0.009977593 = weight(_text_:in in 6061) [ClassicSimilarity], result of:
          0.009977593 = score(doc=6061,freq=10.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.16802745 = fieldWeight in 6061, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
        0.020518444 = weight(_text_:und in 6061) [ClassicSimilarity], result of:
          0.020518444 = score(doc=6061,freq=6.0), product of:
            0.09675359 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.043654136 = queryNorm
            0.21206908 = fieldWeight in 6061, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6061)
      0.33333334 = coord(2/6)
    
    Abstract
    The middle of the 1990s are coined by the increased enthusiasm for the possibilities of the WWW, which has only recently deviated - at least in relation to scientific information - for the differentiated measuring of its advantages and disadvantages. Web Information Retrieval originated as a specialized discipline with great commercial significance (for an overview see Lewandowski 2005). Besides the new technological structure that enables the indexing and searching (in seconds) of unimaginable amounts of data worldwide, new assessment processes for the ranking of search results are being developed, which use the link structures of the Web. They are the main innovation with respect to the traditional "mother discipline" of Information Retrieval. From the beginning, link structures of Web pages are applied to commercial search engines in a wide array of variations. From the perspective of scientific information, link topology based approaches were in essence trying to solve a self-created problem: on the one hand, it quickly became clear that the openness of the Web led to an up-tonow unknown increase in available information, but this also caused the quality of the Web pages searched to become a problem - and with it the relevance of the results. The gatekeeper function of traditional information providers, which narrows down every user query to focus on high-quality sources was lacking. Therefore, the recognition of the "authoritativeness" of the Web pages by general search engines such as Google was one of the most important factors for their success.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  12. Krause, J.: Current research information as part of digital libraries and the heterogeneity problem : integrated searches in the context of databases with different content analyses (2002) 0.00
    0.0020609628 = product of:
      0.012365777 = sum of:
        0.012365777 = weight(_text_:in in 3593) [ClassicSimilarity], result of:
          0.012365777 = score(doc=3593,freq=24.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.2082456 = fieldWeight in 3593, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3593)
      0.16666667 = coord(1/6)
    
    Abstract
    Users of scientific information are now faced with a highly decentralized, heterogeneous document base with varied content analysis methods. Traditional providers of information such as libraries or information centers have been increasingly joined by scientists themselves, who are developing independent services of varying scope, relevance and type of development in the WWW. Theoretically, groups that have gathered current research information (CRI), literature or factual information an specialized subjects can emerge anywhere in the world. One consequence of this is the presence of various inconsistencies: - Relevant, quality-controlled data can be found right next to irrelevant and perhaps demonstrably erroneous data. - In a system of this kind, descriptor A can assume the most disparate meanings. Even in the narrower context of specialized information, descriptor A, which has been extracted in an intellectually and qualitatively correct manner, and with much Gare and attention, from a highly relevant document, is not to be compared with a term A that has been provided by automatic indexing in some peripheral area. Thus, the main problem to be solved is as follows: users must be supplied with heterogeneous data from different sources, modalities and content analysis processes via a visual user interface without inconsistencies in content analysis, for example, seriously impairing the quality of the search results. A scientist who, for example, is looking for social science information an subject X does not first want to search the social science literature database SOLIS and the current research database FORIS, and then the library catalogues of the special compilation area of social sciences at the library catalogues and in the WWW - each time using different search strategies. He wants to phrase his search query only once in the terminology to which he is accustomed without dealing with the remaining problems. Closer analysis of this problems Shows that narrow technological concepts, even if they are undoubtedly necessary, are not sufficient an their own. They must be supplemented by new conceptual considerations relating to the treatment of breaks in consistency between the different processes of content analysis. Acceptable solutions are only obtained when both aspects are combined. The IZ research group (Bonn, Germany) is working an this aspect in four different projects: Carmen, ViBSoz, ELVIRA and the ETB project. Initial solutions for transfer modules are available now and will be discussed.
  13. Krause, J.: Zur Problematik eines Gedankenexperiments über die Informationsversorgung der Wissenschaften (2004) 0.00
    0.0017848461 = product of:
      0.010709076 = sum of:
        0.010709076 = weight(_text_:in in 4677) [ClassicSimilarity], result of:
          0.010709076 = score(doc=4677,freq=2.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.18034597 = fieldWeight in 4677, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=4677)
      0.16666667 = coord(1/6)
    
    Source
    Wissen in Aktion: Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft. Festschrift für Rainer Kuhlen. Hrsg. R. Hammwöhner, u.a
  14. Hellweg, H.; Krause, J.; Mandl, T.; Marx, J.; Müller, M.N.O.; Mutschke, P.; Strötgen, R.: Treatment of semantic heterogeneity in information retrieval (2001) 0.00
    0.001682769 = product of:
      0.010096614 = sum of:
        0.010096614 = weight(_text_:in in 6560) [ClassicSimilarity], result of:
          0.010096614 = score(doc=6560,freq=4.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.17003182 = fieldWeight in 6560, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=6560)
      0.16666667 = coord(1/6)
    
    Abstract
    Nowadays, users of information services are faced with highly decentralised, heterogeneous document sources with different content analysis. Semantic heterogeneity occurs e.g. when resources using different systems for content description are searched using a simple query system. This report describes several approaches of handling semantic heterogeneity used in projects of the German Social Science Information Centre
  15. Krause, J.: Semantic heterogeneity : comparing new semantic web approaches with those of digital libraries (2008) 0.00
    0.0012881019 = product of:
      0.007728611 = sum of:
        0.007728611 = weight(_text_:in in 1908) [ClassicSimilarity], result of:
          0.007728611 = score(doc=1908,freq=6.0), product of:
            0.059380736 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.043654136 = queryNorm
            0.1301535 = fieldWeight in 1908, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1908)
      0.16666667 = coord(1/6)
    
    Abstract
    Purpose - To demonstrate that newer developments in the semantic web community, particularly those based on ontologies (simple knowledge organization system and others) mitigate common arguments from the digital library (DL) community against participation in the Semantic web. Design/methodology/approach - The approach is a semantic web discussion focusing on the weak structure of the Web and the lack of consideration given to the semantic content during indexing. Findings - The points criticised by the semantic web and ontology approaches are the same as those of the DL "Shell model approach" from the mid-1990s, with emphasis on the centrality of its heterogeneity components (used, for example, in vascoda). The Shell model argument began with the "invisible web", necessitating the restructuring of DL approaches. The conclusion is that both approaches fit well together and that the Shell model, with its semantic heterogeneity components, can be reformulated on the semantic web basis. Practical implications - A reinterpretation of the DL approaches of semantic heterogeneity and adapting to standards and tools supported by the W3C should be the best solution. It is therefore recommended that - although most of the semantic web standards are not technologically refined for commercial applications at present - all individual DL developments should be checked for their adaptability to the W3C standards of the semantic web. Originality/value - A unique conceptual analysis of the parallel developments emanating from the digital library and semantic web communities.