Search (6 results, page 1 of 1)

  • × author_ss:"Krause, J."
  1. Krause, J.: Standardisierung und Heterogenität (2004) 0.03
    0.034566246 = product of:
      0.20739746 = sum of:
        0.199508 = weight(_text_:standardisierung in 2954) [ClassicSimilarity], result of:
          0.199508 = score(doc=2954,freq=10.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            1.0078349 = fieldWeight in 2954, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.046875 = fieldNorm(doc=2954)
        0.007889471 = product of:
          0.023668412 = sum of:
            0.023668412 = weight(_text_:22 in 2954) [ClassicSimilarity], result of:
              0.023668412 = score(doc=2954,freq=2.0), product of:
                0.10195719 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029115405 = queryNorm
                0.23214069 = fieldWeight in 2954, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2954)
          0.33333334 = coord(1/3)
      0.16666667 = coord(2/12)
    
    Abstract
    Standardisierung und Normierung sind einer der Grundpfeiler traditioneller Inhaltserschließung von Bibliotheken und fachbezogenen Informationszentren. Metadaten-Aktivitäten wie die Dublin Core Initiative greifen diese grundsätzliche Vorgehensweise für das WWW in erneuerter Form auf. Sie bildet auch das Fundament des Paradigmas von "Publizieren im Web". Gleichzeitig gibt es aber klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für digitale Bibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und denen einer neu verstandenen Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
    Date
    5. 4.2013 10:22:26
  2. Krause, J.; Niggemann, E.; Schwänzl, R.: Beispiel: Virtuelle Fachbibliotheken : Normierung und Standardisierung in sich verändernden Kontexten (2003) 0.02
    0.017348856 = product of:
      0.20818625 = sum of:
        0.20818625 = weight(_text_:standardisierung in 1356) [ClassicSimilarity], result of:
          0.20818625 = score(doc=1356,freq=8.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            1.051674 = fieldWeight in 1356, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1356)
      0.083333336 = coord(1/12)
    
    Abstract
    Bei der Diskussion um Standardisierungsbemühungen in den Bibliotheken, Archiven, den Fachdatenbanken und den Informationen auf WWW-Servern wissenschaftlicher Institute gibt es klare Anzeichen dafür, dass die traditionellen Verfahren der Standardisierung und Normierung an ihre Grenzen stoßen. Für Virtuelle Fachbibliotheken muss deshalb vor allem für die Inhaltserschließung eine neue Sichtweise auf die Forderung nach Konsistenzerhaltung und Interoperabilität gefunden werden. Sie lässt sich durch die folgende Prämisse umschreiben: Standardisierung ist von der verbleibenden Heterogenität her zu denken. Erst im gemeinsamen Zusammenwirken von intellektuellen und automatischen Verfahren zur Heterogenitätsbehandlung und Standardisierung ergibt sich eine Lösungsstrategie, die den heutigen technischen und gesellschaftlichen Rahmenbedingungen gerecht wird.
  3. Krause, J.: Standardisierung von der Heterogenität her denken : zum Entwicklungsstand bilateraler Transferkomponenten für digitale Fachbibliotheken (2003) 0.01
    0.012878186 = product of:
      0.15453823 = sum of:
        0.15453823 = weight(_text_:standardisierung in 1863) [ClassicSimilarity], result of:
          0.15453823 = score(doc=1863,freq=6.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            0.7806655 = fieldWeight in 1863, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.046875 = fieldNorm(doc=1863)
      0.083333336 = coord(1/12)
    
    Abstract
    Lösungen für die Probleme beim Aufbau fachwissenschaftlicher Informationsangebote im Web führen weit über die bisher gewohnten Denkweisen von Informationszentren und Bibliothekaren hinaus. Die diskutierte Leitlinie "Standardisierung von der Heterogenität her zu denken" charakterisiert den Wandel am deutlichsten. Er ist nicht nur technologisch, sondern inhaltlich-konzeptuell. Die traditionellen Methoden der Standardisierung reichen nicht mehr aus, die auch im Web-Kontext angestrebte Interoperabilität und Datenkonsistenz aufrecht zu erhalten. Die Forschungs- und Entwicklungsabteilung des IZ Sozialwissenschaften hat in den letzten Jahren die theoretischen Grundlagen dieser Sichtweise auf die Standardisierungsprobleme und ihre praktische Umsetzung in verschiedenen Projekten zusammen mit unterschiedlichen Partnern bearbeitet. Der im Folgenden dargestellte Stand spiegelt das Ergebnis der Entwicklung der letzten sechs Jahre wider und fasst die realisierten Teilkomponenten solch einer Modellsicht zusammen. Das bisher Erreichte bietet schon heute erste Ansätze, die das konzeptuelle Problem unterschiedlichster Inhaltserschließungen im Kontext der heutigen digitalen Fachbibliotheken, Informationsverbünde und Fachportale zumindest partiell lösen.
  4. Krause, J.: Sacherschließung in virtuellen Bibliotheken : Standardisierung versus Heterogenität (2000) 0.01
    0.0123920385 = product of:
      0.14870445 = sum of:
        0.14870445 = weight(_text_:standardisierung in 6070) [ClassicSimilarity], result of:
          0.14870445 = score(doc=6070,freq=2.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            0.75119567 = fieldWeight in 6070, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.078125 = fieldNorm(doc=6070)
      0.083333336 = coord(1/12)
    
  5. Krause, J.: Konkretes zur These, die Standardisierung von der Heterogenität her zu denken (2004) 0.01
    0.007435223 = product of:
      0.08922268 = sum of:
        0.08922268 = weight(_text_:standardisierung in 2259) [ClassicSimilarity], result of:
          0.08922268 = score(doc=2259,freq=2.0), product of:
            0.19795702 = queryWeight, product of:
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.029115405 = queryNorm
            0.45071742 = fieldWeight in 2259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.7990475 = idf(docFreq=133, maxDocs=44218)
              0.046875 = fieldNorm(doc=2259)
      0.083333336 = coord(1/12)
    
  6. Krause, J.: Integration von Ansätzen neuronaler Netzwerke in die Systemarchitektur von ViBSoz und CARMEN (2001) 0.01
    0.00636652 = product of:
      0.07639824 = sum of:
        0.07639824 = weight(_text_:kooperation in 1698) [ClassicSimilarity], result of:
          0.07639824 = score(doc=1698,freq=2.0), product of:
            0.16959052 = queryWeight, product of:
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.029115405 = queryNorm
            0.4504865 = fieldWeight in 1698, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8247695 = idf(docFreq=354, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1698)
      0.083333336 = coord(1/12)
    
    Abstract
    Neben Crosskonkordanzen, qualitativ-deduktiven Methoden und statistischen Verfahren gehört zu den Grundstrategien der Behandlung semantischer Heterogenität auch der Einsatz neuronaler Netze in Transfermodulen zwischen Dokumentenbeständen mit unterschiedlichen Inhaltserschließungssystemen. Sowohl die Frage, welches Netzwerkmodell am erfolgsversprechendsten ist, als auch die Frage, ob neuronale Netze im Kontext integrierter Fachinformationssysteme in der Praxis einen Mehrwert erbringen können, ist bisher in der Forschung kaum behandelt worden. Deshalb wurde diese Thematik in einer Kooperation vom IZ mit der Universität Hildesheim im Rahmen eines Promotionsvorhabens (Mandl, T.) erforscht