Search (292 results, page 1 of 15)

  • × theme_ss:"Dokumentenmanagement"
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.25
    0.25290796 = product of:
      0.75872386 = sum of:
        0.034258537 = product of:
          0.1027756 = sum of:
            0.1027756 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.1027756 = score(doc=2918,freq=2.0), product of:
                0.18286887 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.021569785 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.0026457112 = weight(_text_:in in 2918) [ClassicSimilarity], result of:
          0.0026457112 = score(doc=2918,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.09017298 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.002390375 = weight(_text_:s in 2918) [ClassicSimilarity], result of:
          0.002390375 = score(doc=2918,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.101928525 = fieldWeight in 2918, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.1027756 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.1027756 = score(doc=2918,freq=2.0), product of:
            0.18286887 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.021569785 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.33333334 = coord(10/30)
    
    Abstract
    The employees of an organization often use a personal hierarchical classification scheme to organize digital documents that are stored on their own workstations. As this may make it hard for other employees to retrieve these documents, there is a risk that the organization will lose track of needed documentation. Furthermore, the inherent boundaries of such a hierarchical structure require making arbitrary decisions about which specific criteria the classification will b.e based on (for instance, the administrative activity or the document type, although a document can have several attributes and require classification in several classes).A faceted classification model to support corporate information organization is proposed. Partially based on Ranganathan's facets theory, this model aims not only to standardize the organization of digital documents, but also to simplify the management of a document throughout its life cycle for both individuals and organizations, while ensuring compliance to regulatory and policy requirements.
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Pages
    S.1-10
  2. Lippold, H.; Hett, H.M.; Hilgenfeldt, J.; Klagge, D.; Nett, W.: Elektronische Dokumentenverwaltung in Klein- und Mittelbetrieben (1993) 0.21
    0.21422647 = product of:
      0.53556615 = sum of:
        0.076796174 = weight(_text_:allgemeines in 2487) [ClassicSimilarity], result of:
          0.076796174 = score(doc=2487,freq=4.0), product of:
            0.12306474 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021569785 = queryNorm
            0.62403065 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.050997887 = weight(_text_:buch in 2487) [ClassicSimilarity], result of:
          0.050997887 = score(doc=2487,freq=4.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.5085249 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.027178695 = weight(_text_:und in 2487) [ClassicSimilarity], result of:
          0.027178695 = score(doc=2487,freq=22.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.56851393 = fieldWeight in 2487, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.023439597 = product of:
          0.046879195 = sum of:
            0.046879195 = weight(_text_:bibliothekswesen in 2487) [ClassicSimilarity], result of:
              0.046879195 = score(doc=2487,freq=4.0), product of:
                0.09615103 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.021569785 = queryNorm
                0.4875579 = fieldWeight in 2487, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2487)
          0.5 = coord(1/2)
        0.06770357 = weight(_text_:informationswissenschaft in 2487) [ClassicSimilarity], result of:
          0.06770357 = score(doc=2487,freq=8.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.696786 = fieldWeight in 2487, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.046879195 = weight(_text_:bibliothekswesen in 2487) [ClassicSimilarity], result of:
          0.046879195 = score(doc=2487,freq=4.0), product of:
            0.09615103 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.021569785 = queryNorm
            0.4875579 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.046879195 = weight(_text_:bibliothekswesen in 2487) [ClassicSimilarity], result of:
          0.046879195 = score(doc=2487,freq=4.0), product of:
            0.09615103 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.021569785 = queryNorm
            0.4875579 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.0030866629 = weight(_text_:in in 2487) [ClassicSimilarity], result of:
          0.0030866629 = score(doc=2487,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.10520181 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.027178695 = weight(_text_:und in 2487) [ClassicSimilarity], result of:
          0.027178695 = score(doc=2487,freq=22.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.56851393 = fieldWeight in 2487, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.08172725 = weight(_text_:einzelne in 2487) [ClassicSimilarity], result of:
          0.08172725 = score(doc=2487,freq=4.0), product of:
            0.12695427 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.021569785 = queryNorm
            0.64375347 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.08172725 = weight(_text_:einzelne in 2487) [ClassicSimilarity], result of:
          0.08172725 = score(doc=2487,freq=4.0), product of:
            0.12695427 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.021569785 = queryNorm
            0.64375347 = fieldWeight in 2487, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
        0.0019719584 = weight(_text_:s in 2487) [ClassicSimilarity], result of:
          0.0019719584 = score(doc=2487,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.08408674 = fieldWeight in 2487, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2487)
      0.4 = coord(12/30)
    
    Classification
    AN 95400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 271 I44 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme / INFORMIX
    Pages
    XIV, 129 S
    RSWK
    Dokumentenverwaltungssystem / Klein- und Mittelbetrieb
    RVK
    AN 95400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
    ST 270 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme
    ST 271 I44 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme / INFORMIX
    Subject
    Dokumentenverwaltungssystem / Klein- und Mittelbetrieb
  3. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.03
    0.031482853 = product of:
      0.11806069 = sum of:
        0.02575782 = weight(_text_:buch in 1718) [ClassicSimilarity], result of:
          0.02575782 = score(doc=1718,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.25684384 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.018509908 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.018509908 = score(doc=1718,freq=20.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.0031180005 = weight(_text_:in in 1718) [ClassicSimilarity], result of:
          0.0031180005 = score(doc=1718,freq=4.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.10626988 = fieldWeight in 1718, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.018509908 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.018509908 = score(doc=1718,freq=20.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.016918836 = weight(_text_:bibliotheken in 1718) [ClassicSimilarity], result of:
          0.016918836 = score(doc=1718,freq=2.0), product of:
            0.08127756 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.021569785 = queryNorm
            0.20816123 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.016918836 = weight(_text_:bibliotheken in 1718) [ClassicSimilarity], result of:
          0.016918836 = score(doc=1718,freq=2.0), product of:
            0.08127756 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.021569785 = queryNorm
            0.20816123 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.016918836 = weight(_text_:bibliotheken in 1718) [ClassicSimilarity], result of:
          0.016918836 = score(doc=1718,freq=2.0), product of:
            0.08127756 = queryWeight, product of:
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.021569785 = queryNorm
            0.20816123 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.768121 = idf(docFreq=2775, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.0014085418 = weight(_text_:s in 1718) [ClassicSimilarity], result of:
          0.0014085418 = score(doc=1718,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.060061958 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.26666668 = coord(8/30)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
    Source
    ProLibris. 7(2002) H.4, S.222-224
  4. El Jerroudi, F.: Inhaltliche Erschließung in Dokumenten-Management-Systemen, dargestellt am Beispiel der KRAFTWERKSSCHULE e.V (2007) 0.03
    0.027309168 = product of:
      0.11703929 = sum of:
        0.019866917 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.019866917 = score(doc=527,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 527, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.014206541 = product of:
          0.028413082 = sum of:
            0.028413082 = weight(_text_:bibliothekswesen in 527) [ClassicSimilarity], result of:
              0.028413082 = score(doc=527,freq=2.0), product of:
                0.09615103 = queryWeight, product of:
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.021569785 = queryNorm
                0.2955047 = fieldWeight in 527, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  4.457672 = idf(docFreq=1392, maxDocs=44218)
                  0.046875 = fieldNorm(doc=527)
          0.5 = coord(1/2)
        0.028413082 = weight(_text_:bibliothekswesen in 527) [ClassicSimilarity], result of:
          0.028413082 = score(doc=527,freq=2.0), product of:
            0.09615103 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.021569785 = queryNorm
            0.2955047 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.028413082 = weight(_text_:bibliothekswesen in 527) [ClassicSimilarity], result of:
          0.028413082 = score(doc=527,freq=2.0), product of:
            0.09615103 = queryWeight, product of:
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.021569785 = queryNorm
            0.2955047 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.457672 = idf(docFreq=1392, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.0045825066 = weight(_text_:in in 527) [ClassicSimilarity], result of:
          0.0045825066 = score(doc=527,freq=6.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.1561842 = fieldWeight in 527, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.019866917 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.019866917 = score(doc=527,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 527, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.0016902501 = weight(_text_:s in 527) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=527,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 527, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
      0.23333333 = coord(7/30)
    
    Abstract
    Für die Schulungsdokumente der KRAFTWERKSSCHULE e.V. werden die Möglichkeiten der inhaltlichen Erschließung analysiert. Die Erschließung soll im Dokumenten-Management-System ELOprofessional realisiert werden. In der Diplomarbeit werden die Möglichkeiten der verbalen und der klassifikatorischen Erschließung sowie die Vor- und Nachteile ihres Einsatzes und deren Eignung für die Erschließung der Schulungsunterlagen der KWS diskutiert. Ziel der Diplomarbeit ist es, Ideen zu entwickeln, wie die Recherche nach inhaltlichen Aspekten der Schulungsdokumente verbessert werden kann. Eine besondere Bedeutung kommt dabei den Bilddokumenten zu. Die Diplomarbeit beginnt mit einem Kapitel über Dokumenten-Management-Systeme, wobei besonders auf deren Recherchemöglichkeiten eingegangen wird. Im Rahmen der Diplomarbeit wurde eine Ist-Analyse durchgeführt, um die bisherige Ablage- und Recherchesituation in der Kraftwerksschule e.V. zu untersuchen. Im weiteren Verlauf der Diplomarbeit wird die Nutzung von Thesauri und Klassifikationen für die Erschließung der Schulungsdokumente diskutiert. Es werden Vorschläge und Lösungsansätze für die verbale und klassifikatorische Erschließung der Lehrmaterialien präsentiert.
    Content
    Diplomarbeit im Studiengang Bibliothekswesen
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften
    Pages
    86 S. + CD
  5. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.03
    0.026664848 = product of:
      0.114277914 = sum of:
        0.018135931 = weight(_text_:und in 1513) [ClassicSimilarity], result of:
          0.018135931 = score(doc=1513,freq=30.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3793607 = fieldWeight in 1513, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.004988801 = weight(_text_:in in 1513) [ClassicSimilarity], result of:
          0.004988801 = score(doc=1513,freq=16.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.17003182 = fieldWeight in 1513, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.018135931 = weight(_text_:und in 1513) [ClassicSimilarity], result of:
          0.018135931 = score(doc=1513,freq=30.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3793607 = fieldWeight in 1513, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.0330228 = weight(_text_:einzelne in 1513) [ClassicSimilarity], result of:
          0.0330228 = score(doc=1513,freq=2.0), product of:
            0.12695427 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.021569785 = queryNorm
            0.26011568 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.0330228 = weight(_text_:einzelne in 1513) [ClassicSimilarity], result of:
          0.0330228 = score(doc=1513,freq=2.0), product of:
            0.12695427 = queryWeight, product of:
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.021569785 = queryNorm
            0.26011568 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.885746 = idf(docFreq=333, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.0011268335 = weight(_text_:s in 1513) [ClassicSimilarity], result of:
          0.0011268335 = score(doc=1513,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.048049565 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.005844816 = product of:
          0.011689632 = sum of:
            0.011689632 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.011689632 = score(doc=1513,freq=2.0), product of:
                0.07553371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021569785 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.23333333 = coord(7/30)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
    Pages
    S.153-163
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  6. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.03
    0.026385104 = product of:
      0.11307902 = sum of:
        0.046545506 = weight(_text_:allgemeines in 1833) [ClassicSimilarity], result of:
          0.046545506 = score(doc=1833,freq=8.0), product of:
            0.12306474 = queryWeight, product of:
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.021569785 = queryNorm
            0.37821966 = fieldWeight in 1833, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.705423 = idf(docFreq=399, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.015454692 = weight(_text_:buch in 1833) [ClassicSimilarity], result of:
          0.015454692 = score(doc=1833,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.1541063 = fieldWeight in 1833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.019866917 = weight(_text_:und in 1833) [ClassicSimilarity], result of:
          0.019866917 = score(doc=1833,freq=64.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 1833, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.005766194 = weight(_text_:in in 1833) [ClassicSimilarity], result of:
          0.005766194 = score(doc=1833,freq=38.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.19652747 = fieldWeight in 1833, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.019866917 = weight(_text_:und in 1833) [ClassicSimilarity], result of:
          0.019866917 = score(doc=1833,freq=64.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 1833, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.0011951874 = weight(_text_:s in 1833) [ClassicSimilarity], result of:
          0.0011951874 = score(doc=1833,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.050964262 = fieldWeight in 1833, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.004383612 = product of:
          0.008767224 = sum of:
            0.008767224 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.008767224 = score(doc=1833,freq=2.0), product of:
                0.07553371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021569785 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.23333333 = coord(7/30)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
    BK
    05.30 / Massenkommunikation / Massenmedien: Allgemeines
    Classification
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
    05.30 / Massenkommunikation / Massenmedien: Allgemeines
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22
    Pages
    276 S
    RVK
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
    Type
    s
  7. Ebrecht, K.: ¬Die Datenbanken PRESSE und BUCH im Archivdatenbank-System ARCHIMEDES des WDR (2002) 0.03
    0.02522116 = product of:
      0.15132695 = sum of:
        0.061818767 = weight(_text_:buch in 1600) [ClassicSimilarity], result of:
          0.061818767 = score(doc=1600,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.6164252 = fieldWeight in 1600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.09375 = fieldNorm(doc=1600)
        0.014048031 = weight(_text_:und in 1600) [ClassicSimilarity], result of:
          0.014048031 = score(doc=1600,freq=2.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.29385152 = fieldWeight in 1600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1600)
        0.05803163 = weight(_text_:informationswissenschaft in 1600) [ClassicSimilarity], result of:
          0.05803163 = score(doc=1600,freq=2.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.5972451 = fieldWeight in 1600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.09375 = fieldNorm(doc=1600)
        0.014048031 = weight(_text_:und in 1600) [ClassicSimilarity], result of:
          0.014048031 = score(doc=1600,freq=2.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.29385152 = fieldWeight in 1600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1600)
        0.0033805002 = weight(_text_:s in 1600) [ClassicSimilarity], result of:
          0.0033805002 = score(doc=1600,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.14414869 = fieldWeight in 1600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.09375 = fieldNorm(doc=1600)
      0.16666667 = coord(5/30)
    
    Imprint
    Köln : FH Köln, Fachbereich Informationswissenschaft
    Pages
    xxx S
  8. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.02
    0.024657978 = product of:
      0.105677046 = sum of:
        0.019866917 = weight(_text_:und in 5868) [ClassicSimilarity], result of:
          0.019866917 = score(doc=5868,freq=36.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 5868, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.027356375 = weight(_text_:informationswissenschaft in 5868) [ClassicSimilarity], result of:
          0.027356375 = score(doc=5868,freq=4.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.28154406 = fieldWeight in 5868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.004988801 = weight(_text_:in in 5868) [ClassicSimilarity], result of:
          0.004988801 = score(doc=5868,freq=16.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.17003182 = fieldWeight in 5868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.02662638 = weight(_text_:einzelnen in 5868) [ClassicSimilarity], result of:
          0.02662638 = score(doc=5868,freq=2.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.23356925 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.019866917 = weight(_text_:und in 5868) [ClassicSimilarity], result of:
          0.019866917 = score(doc=5868,freq=36.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 5868, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.0011268335 = weight(_text_:s in 5868) [ClassicSimilarity], result of:
          0.0011268335 = score(doc=5868,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.048049565 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.005844816 = product of:
          0.011689632 = sum of:
            0.011689632 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.011689632 = score(doc=5868,freq=2.0), product of:
                0.07553371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021569785 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.23333333 = coord(7/30)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
    Pages
    S.238-246
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  9. Meiss, B.: Information Retrieval und Dokumentmanagement im Multimedia-Zeitalter (1997) 0.02
    0.019911315 = product of:
      0.09955657 = sum of:
        0.030909384 = weight(_text_:buch in 710) [ClassicSimilarity], result of:
          0.030909384 = score(doc=710,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.3082126 = fieldWeight in 710, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.015706176 = weight(_text_:und in 710) [ClassicSimilarity], result of:
          0.015706176 = score(doc=710,freq=10.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.328536 = fieldWeight in 710, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.029015815 = weight(_text_:informationswissenschaft in 710) [ClassicSimilarity], result of:
          0.029015815 = score(doc=710,freq=2.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.29862255 = fieldWeight in 710, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.0052914224 = weight(_text_:in in 710) [ClassicSimilarity], result of:
          0.0052914224 = score(doc=710,freq=8.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.18034597 = fieldWeight in 710, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.015706176 = weight(_text_:und in 710) [ClassicSimilarity], result of:
          0.015706176 = score(doc=710,freq=10.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.328536 = fieldWeight in 710, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.0029275995 = weight(_text_:s in 710) [ClassicSimilarity], result of:
          0.0029275995 = score(doc=710,freq=6.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.124836445 = fieldWeight in 710, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
      0.2 = coord(6/30)
    
    Abstract
    "Das Buch ist ein praxisbezogenes VADEMECUM für alle, die in einer Welt der Datennetze Wissen/Informationen sammeln, ordnen und Relevantes aus der stetig anwachsenden Informationsflut wiederfinden müssen (Retrieval). Behandelt werden alle Bedingungen, die für Aufbau und Pflege einer Datenbank notwendig sind. Themen wie der Wert eines Thesaurus als Basis geordneten Wissens werden dabei ebenso erfaßt wie die Indexierungspraxis, die Vor- und Nachteile von Volltextsystemen sowie moderne Verfahren. Hier geht es um Dokument-Management-Systeme, das Prinzip des Data-Warehouse, optische Archivsysteme und Informationsverbünde. Internationale Datenbanken sowie das technische Umfeld in der Medienwelt werden bis hin zum Internet angesprochen. Ein Ausblick in die Zukunft des Dokumentars runden das Werk ab
    Footnote
    Rez. in: nfd 49(1998) H.6, S.377-378 (R. Fugmann); Knowledge organization 25(1998) no.3, S.119-120 (R. Fugmann)
    Pages
    117 S
    Series
    Reihe Informationswissenschaft der DGD; Bd.2
  10. Toebak, P.M.: Records Management : Gestaltung und Umsetzung (2010) 0.02
    0.019122286 = product of:
      0.09561143 = sum of:
        0.021856235 = weight(_text_:buch in 4522) [ClassicSimilarity], result of:
          0.021856235 = score(doc=4522,freq=4.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.21793923 = fieldWeight in 4522, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.02017495 = weight(_text_:und in 4522) [ClassicSimilarity], result of:
          0.02017495 = score(doc=4522,freq=66.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.42201215 = fieldWeight in 4522, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.003968567 = weight(_text_:in in 4522) [ClassicSimilarity], result of:
          0.003968567 = score(doc=4522,freq=18.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.13525948 = fieldWeight in 4522, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.028241543 = weight(_text_:einzelnen in 4522) [ClassicSimilarity], result of:
          0.028241543 = score(doc=4522,freq=4.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.24773762 = fieldWeight in 4522, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.02017495 = weight(_text_:und in 4522) [ClassicSimilarity], result of:
          0.02017495 = score(doc=4522,freq=66.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.42201215 = fieldWeight in 4522, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
        0.0011951874 = weight(_text_:s in 4522) [ClassicSimilarity], result of:
          0.0011951874 = score(doc=4522,freq=4.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.050964262 = fieldWeight in 4522, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4522)
      0.2 = coord(6/30)
    
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in: ZfBB 58(2011) H.2, S.108 (R. Schneider): "Kürzlich, während eines Vortrags zum Knowledge Management eines der weltweit grössten Wirtschaftsprüfer, überraschte eine Zuhörerin den Vortragenden mit einer simplen Frage: »Brauchen Sie nicht eigentlich Records Management?« Darauf der sichtlich überrumpelte Referent: »Was meinen Sie mit Records Management?« Soviel zum Stand der Dinge und zur Verankerung des Themas in der aktuellen Betriebslandschaft. Insofern trifft es sich gut, dass nach dem lange erwarteten Handbuch zum Records Management nun das Folgewerk mit demselben Haupttitel sowie dem Untertitel Gestaltung und Umsetzung von Peter Toebak erschienen ist. Der ungleich schlankere Band widmet sich - wie es der Untertitel andeutet - der konkreten Realisierung des betrieblichen Aktenmanagements und tut dies vor allen Dingen anhand eines Zehn-Schritte-Plans, der nach einer Einleitung und einer Rekapitulation der Kernproblematik des Records Management im dritten Kapitel vorgestellt und den folgenden vier Kapiteln ausführlich ausgearbeitet und in allen Details extemporiert wird. Die einzelnen Schritte dieses Plans reichen dabei von der Definition der Methodik (1) und der Identifikation des Umfelds (2) über die Identifikation der Prozesskategorien (3) und die Definition der Records-Serien (4) zu den eher applikationsorientierten Arbeitschritten. Diese umfassen nach der Identifikation der Anwendungen (5), die Integration der Systemlandschaft mit dem EDRMS (= Electronic Documentary Records Management System) (6), die Definition weiterer Attribute (7), die Auswahl und Installation des EDRMS (8) sowie die Umsetzung des EDRMS (9) und dessen Evaluation (10).
    Über allen Ausführungen steht jedoch gleichsam das Mantra der Synonymie von Dossier und Prozess, wobei Synonymie hier im strengeren Sinn als funktionale Äquivalenz zu verstehen ist. Um dieses zentrale Kernverständnis werden dann die weiteren essentiellen Kernbegriffe wie »item level«, »above item level«, »kleiner und grosser Lebenszyklus«, »Compliance« und schlussendlich das Herzstück des RM, das »Masterdossier«, ausführlich diskutiert und in den rechten Kontext zur Deckungsgleichheit von Dossier und Prozess gebracht. Wie schon im Handbuch erweist sich der Verfasser in seiner Kompetenz nicht nur als Kenner, sondern auch als Meister des Metiers und unterstreicht dies durch eine detaillierte Bezugnahme auf angrenzende Quellen, so dass die Lektüre der teilweise äußerst umfangreichen einzelnen Kapitel, die allerdings nur sehr flach strukturiert sind, immer erhellend bleibt und die Notwendigkeit einer Umsetzung des Records Management unterstreicht. Der Leser wird Zeuge eines enormen Reflektionsprozesses, der sich auch an den sorgfältig ausgearbeiteten Anhängen mit den dort vorhandenen Literaturangaben und dem Glossar der wichtigsten Begriffe zeigt. Jedoch hätte man dem Buch neben einem weiträumigeren Textspiegel, grösseren Abständen zwischen Zeilen und Absätzen und leserlicheren Illustrationen ein etwas strengeres Lektorat gewünscht, welches die sehr häufigen Exkurse entweder deutlicher abgehoben oder ganz gestrichen hätte. So ist der Leser ständig gefordert, dem auf hohem akademischen Niveau mäandernden, bisweilen ausufernden Gedankenstrom mit höchstmöglicher Aufmerksamkeit zu folgen. Andererseits muss bei aller Kritik an den sowohl formalen als auch inhaltlich übervollen Seiten auch das Bemühen um Vollständigkeit und Einbettung in den wissenschaftlichen Gesamtkontext honoriert werden. Daran fehlt es diesem Buch wahrlich nicht; an manchen Stellen hätte man sich nur etwas mehr konkrete Beispiele gewünscht, um die Komplexität der Materie besser zu veranschaulichen. So könnte man sich vorstellen, in einer neuen Auflage den Zehn-Schritte-Plan am Fallbeispiel einer imaginären Firma oder Verwaltung zu illustrieren, wie dies beispielsweise Helmut Krcmar in seinem Standardwerk zum Informationsmanagement anhand der Rockhaus AG tut.
    Möglich wäre dies auch in einem dritten Band desselben Autors, der die Kürze und Struktur eines Vademekums haben sollte. Dieses Vademekum könnte dem Records Manager als handlicher Leitfaden und Nachschlagewerk für die jeweils umzusetzenden Projekte dienen. Zudem könnte es dem allgemeinen Management die Notwendigkeit des Records Management vor Augen führen und eine konkrete Entscheidungshilfe zur Gestaltung der allgemeinen Richtlinien sein. Denn eines steht dem Leser nach der Lektüre klar vor Augen: Es braucht mehr Records und weniger Knowledge Management sowie eine sinnvolle Verzahnung dieser beiden Disziplinen mit dem sie stützenden Informationsmanagement. Records Management ist dabei nicht nur ein Scharnier zwischen Informationsmanagement und Knowledge Management und der alles umfassenden Informationstechnologie, sondern kann vielmehr zum Dreh- und Angelpunkt einer effizienten betrieblichen Verwaltung werden. Wenn auch die allgemeine Managementebene bereit ist, diese strukturelle Notwendigkeit zu erkennen, dann steht der von Peter Toebak beschriebenen Gestaltung und Umsetzung nichts mehr im Wege."
    Imprint
    Baden : hier + jetzt, Verl. für Kultur und Geschichte
    Pages
    289 S
  11. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.02
    0.018121762 = product of:
      0.10873057 = sum of:
        0.016555762 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.016555762 = score(doc=3128,freq=4.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.34630734 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
        0.006236001 = weight(_text_:in in 3128) [ClassicSimilarity], result of:
          0.006236001 = score(doc=3128,freq=4.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.21253976 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
        0.06656595 = weight(_text_:einzelnen in 3128) [ClassicSimilarity], result of:
          0.06656595 = score(doc=3128,freq=2.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.5839231 = fieldWeight in 3128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
        0.016555762 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.016555762 = score(doc=3128,freq=4.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.34630734 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
        0.0028170836 = weight(_text_:s in 3128) [ClassicSimilarity], result of:
          0.0028170836 = score(doc=3128,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.120123915 = fieldWeight in 3128, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.16666667 = coord(5/30)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.365-368
  12. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.02
    0.017030152 = product of:
      0.102180906 = sum of:
        0.018583799 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.018583799 = score(doc=4343,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.38872904 = fieldWeight in 4343, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.05803163 = weight(_text_:informationswissenschaft in 4343) [ClassicSimilarity], result of:
          0.05803163 = score(doc=4343,freq=8.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.5972451 = fieldWeight in 4343, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.0052914224 = weight(_text_:in in 4343) [ClassicSimilarity], result of:
          0.0052914224 = score(doc=4343,freq=8.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.18034597 = fieldWeight in 4343, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.018583799 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.018583799 = score(doc=4343,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.38872904 = fieldWeight in 4343, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.0016902501 = weight(_text_:s in 4343) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=4343,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
      0.16666667 = coord(5/30)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Content
    Diese Publikation entstand im Rahmen einer Bachelor Thesis zum Abschluss Bachelor of Science (BSc) FHO in Informationswissenschaft. Vgl. unter: http://www.fh-htwchur.ch/uploads/media/CSI_44_Baier.pdf.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
    Pages
    85 S
    Series
    Churer Schriften zur Informationswissenschaft / Arbeitsbereich Informationswissenschaft; Schrift 44
  13. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.01668454 = product of:
      0.0834227 = sum of:
        0.022940338 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.022940338 = score(doc=1515,freq=48.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.0039439937 = weight(_text_:in in 1515) [ClassicSimilarity], result of:
          0.0039439937 = score(doc=1515,freq=10.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.13442196 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.02662638 = weight(_text_:einzelnen in 1515) [ClassicSimilarity], result of:
          0.02662638 = score(doc=1515,freq=2.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.23356925 = fieldWeight in 1515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.022940338 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.022940338 = score(doc=1515,freq=48.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.0011268335 = weight(_text_:s in 1515) [ClassicSimilarity], result of:
          0.0011268335 = score(doc=1515,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.048049565 = fieldWeight in 1515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.005844816 = product of:
          0.011689632 = sum of:
            0.011689632 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.011689632 = score(doc=1515,freq=2.0), product of:
                0.07553371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021569785 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.2 = coord(6/30)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Pages
    S.164-168
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  14. Schiffer, A.: Multimediale Bild-Text-Verfilmung am Bild- und Tonarchiv des Steiermärkischen Landesmuseums Joanneum Graz (1993) 0.02
    0.01618552 = product of:
      0.12139139 = sum of:
        0.061818767 = weight(_text_:buch in 2837) [ClassicSimilarity], result of:
          0.061818767 = score(doc=2837,freq=2.0), product of:
            0.10028592 = queryWeight, product of:
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.021569785 = queryNorm
            0.6164252 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.64937 = idf(docFreq=1149, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
        0.028096061 = weight(_text_:und in 2837) [ClassicSimilarity], result of:
          0.028096061 = score(doc=2837,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.58770305 = fieldWeight in 2837, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
        0.028096061 = weight(_text_:und in 2837) [ClassicSimilarity], result of:
          0.028096061 = score(doc=2837,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.58770305 = fieldWeight in 2837, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
        0.0033805002 = weight(_text_:s in 2837) [ClassicSimilarity], result of:
          0.0033805002 = score(doc=2837,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.14414869 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
      0.13333334 = coord(4/30)
    
    Pages
    S.307-312
    Source
    Altes Buch und Neue Medien: Vorträge und Kommissionssitzungen. Der österreichische Bibliothekartag 1992, Eisenstadt, 29.9.-3.10.1992. Hrsg.: Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare
  15. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.02
    0.01600372 = product of:
      0.09602232 = sum of:
        0.025325447 = weight(_text_:und in 4651) [ClassicSimilarity], result of:
          0.025325447 = score(doc=4651,freq=26.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.5297484 = fieldWeight in 4651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.003741601 = weight(_text_:in in 4651) [ClassicSimilarity], result of:
          0.003741601 = score(doc=4651,freq=4.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.12752387 = fieldWeight in 4651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.03993957 = weight(_text_:einzelnen in 4651) [ClassicSimilarity], result of:
          0.03993957 = score(doc=4651,freq=2.0), product of:
            0.1139978 = queryWeight, product of:
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.021569785 = queryNorm
            0.35035387 = fieldWeight in 4651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.285069 = idf(docFreq=608, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.025325447 = weight(_text_:und in 4651) [ClassicSimilarity], result of:
          0.025325447 = score(doc=4651,freq=26.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.5297484 = fieldWeight in 4651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.0016902501 = weight(_text_:s in 4651) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=4651,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 4651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
      0.16666667 = coord(5/30)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
    Pages
    VIII, 154 S
  16. Behling, U.: Vom Medienarchiv zur Researchabteilung (2001) 0.01
    0.0139390025 = product of:
      0.08363401 = sum of:
        0.018583799 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.018583799 = score(doc=5864,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.04103456 = weight(_text_:informationswissenschaft in 5864) [ClassicSimilarity], result of:
          0.04103456 = score(doc=5864,freq=4.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.42231607 = fieldWeight in 5864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.003741601 = weight(_text_:in in 5864) [ClassicSimilarity], result of:
          0.003741601 = score(doc=5864,freq=4.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.12752387 = fieldWeight in 5864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.018583799 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.018583799 = score(doc=5864,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.0016902501 = weight(_text_:s in 5864) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=5864,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 5864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
      0.16666667 = coord(5/30)
    
    Abstract
    Vor 20 Jahren war es für »bewährte« Mitarbeiter fast noch eine Strafe: Ab ins Archiv! Inzwischen haben sich die Anforderungen an Pressearchive und damit auch an die Mitarbeiter völlig gewandelt. Eine Konsequenz dieser Entwicklung stellt die organisatorische Trennung von Datenbankproduktion (seit über zwei Jahren bei Genios) und Dokumentation dar. Das ehemalige Pressearchiv entwickelt sich weiter in Richtung einer Researchabteilung, die zunehmend komplexere Informationsprodukte wie Tabellen Grafiken, Ranglisten usw. für die verschiedenen Verlagsobjekte druckfertig zur Verfügung stellt. Die Bedeutung der dokumentarischen Ausbildung von Mitarbeitern tritt damit gegenüber volks- und betriebswirtschaftlichen Kenntnissen zunehmend in den Hintergrund. Der eigene Informationsinput besteht nach wie vor aus einer konventionellen Pressedokumentation, eigener Nicht-Pressedatenbanken sowie einem CD-ROM-Angebot für die gesamte Verlagsgruppe Handelsblatt
    Pages
    S.320
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.01
    0.013148959 = product of:
      0.07889375 = sum of:
        0.015486497 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.015486497 = score(doc=1824,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.32394084 = fieldWeight in 1824, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.0054005357 = weight(_text_:in in 1824) [ClassicSimilarity], result of:
          0.0054005357 = score(doc=1824,freq=12.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.18406484 = fieldWeight in 1824, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.015486497 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.015486497 = score(doc=1824,freq=14.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.32394084 = fieldWeight in 1824, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.0014085418 = weight(_text_:s in 1824) [ClassicSimilarity], result of:
          0.0014085418 = score(doc=1824,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.060061958 = fieldWeight in 1824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.04111168 = weight(_text_:stuttgart in 1824) [ClassicSimilarity], result of:
          0.04111168 = score(doc=1824,freq=2.0), product of:
            0.1266975 = queryWeight, product of:
              5.8738413 = idf(docFreq=337, maxDocs=44218)
              0.021569785 = queryNorm
            0.32448694 = fieldWeight in 1824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8738413 = idf(docFreq=337, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
      0.16666667 = coord(5/30)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.5, S.281-288
  18. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.01
    0.012791254 = product of:
      0.06395627 = sum of:
        0.014807926 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.014807926 = score(doc=1512,freq=20.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.006110009 = weight(_text_:in in 1512) [ClassicSimilarity], result of:
          0.006110009 = score(doc=1512,freq=24.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.2082456 = fieldWeight in 1512, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.014807926 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.014807926 = score(doc=1512,freq=20.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.021258758 = weight(_text_:deutsche in 1512) [ClassicSimilarity], result of:
          0.021258758 = score(doc=1512,freq=2.0), product of:
            0.10186133 = queryWeight, product of:
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.021569785 = queryNorm
            0.20870294 = fieldWeight in 1512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7224083 = idf(docFreq=1068, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.0011268335 = weight(_text_:s in 1512) [ClassicSimilarity], result of:
          0.0011268335 = score(doc=1512,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.048049565 = fieldWeight in 1512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.005844816 = product of:
          0.011689632 = sum of:
            0.011689632 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.011689632 = score(doc=1512,freq=2.0), product of:
                0.07553371 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.021569785 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.2 = coord(6/30)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
    Pages
    S.169-177
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  19. Rickenbach, J.-P.: ¬Das multimediale Archivsystem der Neuen Zürcher Zeitung (2001) 0.01
    0.0125903785 = product of:
      0.09442783 = sum of:
        0.018730707 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
          0.018730707 = score(doc=5835,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.39180204 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.05471275 = weight(_text_:informationswissenschaft in 5835) [ClassicSimilarity], result of:
          0.05471275 = score(doc=5835,freq=4.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.5630881 = fieldWeight in 5835, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.018730707 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
          0.018730707 = score(doc=5835,freq=8.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.39180204 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.002253667 = weight(_text_:s in 5835) [ClassicSimilarity], result of:
          0.002253667 = score(doc=5835,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.09609913 = fieldWeight in 5835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
      0.13333334 = coord(4/30)
    
    Pages
    S.317-319
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. Schütz, T.: Dokumentenmanagement (2004) 0.01
    0.012180936 = product of:
      0.07308561 = sum of:
        0.019866917 = weight(_text_:und in 2929) [ClassicSimilarity], result of:
          0.019866917 = score(doc=2929,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 2929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.029015815 = weight(_text_:informationswissenschaft in 2929) [ClassicSimilarity], result of:
          0.029015815 = score(doc=2929,freq=2.0), product of:
            0.09716552 = queryWeight, product of:
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.021569785 = queryNorm
            0.29862255 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.504705 = idf(docFreq=1328, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.0026457112 = weight(_text_:in in 2929) [ClassicSimilarity], result of:
          0.0026457112 = score(doc=2929,freq=2.0), product of:
            0.029340398 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.021569785 = queryNorm
            0.09017298 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.019866917 = weight(_text_:und in 2929) [ClassicSimilarity], result of:
          0.019866917 = score(doc=2929,freq=16.0), product of:
            0.04780656 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021569785 = queryNorm
            0.41556883 = fieldWeight in 2929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.0016902501 = weight(_text_:s in 2929) [ClassicSimilarity], result of:
          0.0016902501 = score(doc=2929,freq=2.0), product of:
            0.023451481 = queryWeight, product of:
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.021569785 = queryNorm
            0.072074346 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.0872376 = idf(docFreq=40523, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
      0.16666667 = coord(5/30)
    
    Abstract
    Das Dokumentenmanagement soll das betriebliche Informationsmanagement um geeignete Methoden zur hardware- und softwaregestützten Verarbeitung aller Arten von Dokumenten unter organisatorischen Rahmenbedingungen (z.B. personelle oder rechtliche Aspekte) erweitern. Einem Dokumentenmanagement kommt dabei eine Integrations- und Dokumentationsfunktion zu, die Daten und Dokumente aus unterschiedlichen Quellen entgegennimmt. Dokumente kommen aus unterschiedlicher Anwendungssoftware (z.B. SAP R/3 für die Auftragserfassung oder Leistungsabrechnung), Büro-Software (z.B. Office-Anwendungen für die Erstellung eines Angebotes oder eines Vertrages) oder aus unterschiedlichen Abteilungen, z.B. stellen Entwicklungsabteilungen Post Sales-Dokumentationen (Bedienungshandbücher, Montage- oder Aufbauanleitungen) und Marketingabteilungen Pre Sales-Dokumentationen (Werbebroschüren, Preislisten) bereit. Das Dokumentenmanagement umfasst dabei den kompletten "DokumentLife-Cycle": das Erstellen, Digitalisieren, Indizieren, Archivieren, Wiederfinden, Weiterleiten und Vernichten von Dokumenten. Hard- und Softwareunterstützung erhält das Dokumentenmanagement durch Dokumentenmanagementsysteme.
    Pages
    S.339-349
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis

Years

Languages

  • e 161
  • d 123
  • f 4
  • sp 2
  • a 1
  • nl 1
  • More… Less…

Types

  • a 231
  • m 32
  • x 16
  • s 7
  • el 5
  • r 4
  • ? 1
  • b 1
  • n 1
  • More… Less…