Search (63 results, page 2 of 4)

  • × theme_ss:"Dokumentenmanagement"
  • × year_i:[2000 TO 2010}
  1. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.01
    0.011226273 = product of:
      0.06735764 = sum of:
        0.018849954 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.018849954 = score(doc=1718,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.016118698 = weight(_text_:des in 1718) [ClassicSimilarity], result of:
          0.016118698 = score(doc=1718,freq=6.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2649762 = fieldWeight in 1718, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.013539031 = weight(_text_:der in 1718) [ClassicSimilarity], result of:
          0.013539031 = score(doc=1718,freq=10.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27592933 = fieldWeight in 1718, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.018849954 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.018849954 = score(doc=1718,freq=20.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
  2. Rickenbach, J.-P.: ¬Das multimediale Archivsystem der Neuen Zürcher Zeitung (2001) 0.01
    0.010981946 = product of:
      0.065891676 = sum of:
        0.008366567 = product of:
          0.0250997 = sum of:
            0.0250997 = weight(_text_:p in 5835) [ClassicSimilarity], result of:
              0.0250997 = score(doc=5835,freq=2.0), product of:
                0.078979194 = queryWeight, product of:
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.021966046 = queryNorm
                0.31780142 = fieldWeight in 5835, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5955126 = idf(docFreq=3298, maxDocs=44218)
                  0.0625 = fieldNorm(doc=5835)
          0.33333334 = coord(1/3)
        0.019074813 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5835,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.019375484 = weight(_text_:der in 5835) [ClassicSimilarity], result of:
          0.019375484 = score(doc=5835,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3948779 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
        0.019074813 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5835,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
      0.16666667 = coord(4/24)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Lehner, R.: ¬Der digitalisierte Scherenschnitt : Zeitungsausschnittarchive im Informationszeitalter (2003) 0.01
    0.010913092 = product of:
      0.06547855 = sum of:
        0.0143061085 = weight(_text_:und in 6684) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=6684,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6684)
        0.022334723 = weight(_text_:des in 6684) [ClassicSimilarity], result of:
          0.022334723 = score(doc=6684,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=6684)
        0.014531613 = weight(_text_:der in 6684) [ClassicSimilarity], result of:
          0.014531613 = score(doc=6684,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=6684)
        0.0143061085 = weight(_text_:und in 6684) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=6684,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6684)
      0.16666667 = coord(4/24)
    
    Abstract
    Eine Darstellung des EU-Projektes LAURIN
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  4. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.01
    0.010913092 = product of:
      0.06547855 = sum of:
        0.0143061085 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=1785,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.022334723 = weight(_text_:des in 1785) [ClassicSimilarity], result of:
          0.022334723 = score(doc=1785,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.36716178 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.014531613 = weight(_text_:der in 1785) [ClassicSimilarity], result of:
          0.014531613 = score(doc=1785,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.29615843 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
        0.0143061085 = weight(_text_:und in 1785) [ClassicSimilarity], result of:
          0.0143061085 = score(doc=1785,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.29385152 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
      0.16666667 = coord(4/24)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  5. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.01
    0.010840867 = product of:
      0.0650452 = sum of:
        0.016859911 = weight(_text_:und in 5651) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5651,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5651, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.013160862 = weight(_text_:des in 5651) [ClassicSimilarity], result of:
          0.013160862 = score(doc=5651,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 5651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.018164515 = weight(_text_:der in 5651) [ClassicSimilarity], result of:
          0.018164515 = score(doc=5651,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 5651, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.016859911 = weight(_text_:und in 5651) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5651,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5651, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
      0.16666667 = coord(4/24)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010617934 = product of:
      0.063707605 = sum of:
        0.015994716 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015994716 = score(doc=6386,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.011167361 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.011167361 = score(doc=6386,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.020550804 = weight(_text_:der in 6386) [ClassicSimilarity], result of:
          0.020550804 = score(doc=6386,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4188313 = fieldWeight in 6386, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.015994716 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.015994716 = score(doc=6386,freq=10.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.16666667 = coord(4/24)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  7. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010517932 = product of:
      0.06310759 = sum of:
        0.016859911 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5863,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.009306135 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.009306135 = score(doc=5863,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020081628 = weight(_text_:der in 5863) [ClassicSimilarity], result of:
          0.020081628 = score(doc=5863,freq=22.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.40926933 = fieldWeight in 5863, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.016859911 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.016859911 = score(doc=5863,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.16666667 = coord(4/24)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  8. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.01
    0.010477897 = product of:
      0.06286738 = sum of:
        0.015771002 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.015771002 = score(doc=1824,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 1824, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.013160862 = weight(_text_:des in 1824) [ClassicSimilarity], result of:
          0.013160862 = score(doc=1824,freq=4.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.21635216 = fieldWeight in 1824, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.018164515 = weight(_text_:der in 1824) [ClassicSimilarity], result of:
          0.018164515 = score(doc=1824,freq=18.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.37019804 = fieldWeight in 1824, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.015771002 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.015771002 = score(doc=1824,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.32394084 = fieldWeight in 1824, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
      0.16666667 = coord(4/24)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.5, S.281-288
  9. Fenske, M.: Planung eines digitalen Parlamentsarchivs (2000) 0.01
    0.010454531 = product of:
      0.06272718 = sum of:
        0.019074813 = weight(_text_:und in 5438) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5438,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
        0.014889815 = weight(_text_:des in 5438) [ClassicSimilarity], result of:
          0.014889815 = score(doc=5438,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.24477452 = fieldWeight in 5438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
        0.009687742 = weight(_text_:der in 5438) [ClassicSimilarity], result of:
          0.009687742 = score(doc=5438,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.19743896 = fieldWeight in 5438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
        0.019074813 = weight(_text_:und in 5438) [ClassicSimilarity], result of:
          0.019074813 = score(doc=5438,freq=8.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.39180204 = fieldWeight in 5438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
      0.16666667 = coord(4/24)
    
    Abstract
    Am Beispiel des Schleswig-Holsteinischen Landtags wird das Stufenkonzept eines digitalen Parlamentsarchivs entwickelt. Hierbei werden vor allem Kosten -Nutzen-Aspekte berücksichtigt. Das Archiv umfasst die gedruckten Parlamentsmaterialien und Gesetzblätter sowie ihre Dokumentennachweise. Es werden die Möglichkeiten der Datenübernahme, retrospektiven Digitalisierung und digitalen Langzeitarchivierung beschrieben. Die Formatauswahl orientiert sich an den unterschiedlichen Anforderungen von Bildschirm, Druck/Download und digitalem Master
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.407-414
  10. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.01
    0.01009924 = product of:
      0.060595438 = sum of:
        0.017842853 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.017842853 = score(doc=1400,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 1400, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.0074449074 = weight(_text_:des in 1400) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=1400,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 1400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.017464826 = weight(_text_:der in 1400) [ClassicSimilarity], result of:
          0.017464826 = score(doc=1400,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.35593814 = fieldWeight in 1400, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.017842853 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.017842853 = score(doc=1400,freq=28.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.36649725 = fieldWeight in 1400, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.16666667 = coord(4/24)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  11. Graner, B.; Fresenborg, M.; Lühr, A.; Seifert, J.; Sünkler, S.: Schriftgutverwaltung an der Hochschule : Entwicklung eines aufgabenorientierten Aktenplans für die Hochschule für Angewandte Wissenschaften Hamburg (2009) 0.01
    0.009815143 = product of:
      0.05889086 = sum of:
        0.014454362 = weight(_text_:und in 3134) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3134,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3134, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
        0.013028587 = weight(_text_:des in 3134) [ClassicSimilarity], result of:
          0.013028587 = score(doc=3134,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.2141777 = fieldWeight in 3134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
        0.016953548 = weight(_text_:der in 3134) [ClassicSimilarity], result of:
          0.016953548 = score(doc=3134,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 3134, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
        0.014454362 = weight(_text_:und in 3134) [ClassicSimilarity], result of:
          0.014454362 = score(doc=3134,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.2968967 = fieldWeight in 3134, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
      0.16666667 = coord(4/24)
    
    Abstract
    Im Rahmen eines studentischen Projektes haben Studierende der HAW Hamburg im Wintersemester 2008/2009 ein Konzept für ein elektronisches Schriftgutverwaltungssystem für die Hochschulverwaltung der HAW Hamburg erarbeitet. Hierzu wurde ein aufgabenorientierter Aktenplan für die gesamte Hochschule entwickelt, ein Vorschlag für ein Rollenkonzept zur Steuerung der Zugriffsmöglichkeiten auf die Akten gemacht und das Konzept prototypisch zu Test- und Demonstrationszwecken unter Einsatz des elektronischen Schriftgutverwaltungssystems DoRIS® umgesetzt.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.383-386
  12. Ehrmann, S.: ¬Die Nadel im Bytehaufen : Finden statt suchen: Text Retrieval, Multimediadatenbanken, Dokumentenmanagement (2000) 0.01
    0.0093307905 = product of:
      0.055984743 = sum of:
        0.011921758 = weight(_text_:und in 5317) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5317,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5317)
        0.01712567 = weight(_text_:der in 5317) [ClassicSimilarity], result of:
          0.01712567 = score(doc=5317,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 5317, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5317)
        0.015015555 = product of:
          0.03003111 = sum of:
            0.03003111 = weight(_text_:29 in 5317) [ClassicSimilarity], result of:
              0.03003111 = score(doc=5317,freq=2.0), product of:
                0.07726968 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.021966046 = queryNorm
                0.38865322 = fieldWeight in 5317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5317)
          0.5 = coord(1/2)
        0.011921758 = weight(_text_:und in 5317) [ClassicSimilarity], result of:
          0.011921758 = score(doc=5317,freq=2.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.24487628 = fieldWeight in 5317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5317)
      0.16666667 = coord(4/24)
    
    Abstract
    Gigabyteweise Programme, Daten, Dokumente - mit den Festplattenkapazitäten wächst automatisch auch der Sammeltrieb der Anwender. Leider bringen aber die Betriebssysteme selbst keine geeigneten Werkzeuge mit, um gesuchte Informationen, etwa Texte, Bilder, MP3-Daten oder Videoschnipsel einfach und schnell zu finden. Spezialisierte Programme müssen her
    Date
    29. 3.2009 11:10:42
  13. Spree, U.: Wissensorganisation und Records Management : Was ist der State of the Art? Literaturübersicht (2009) 0.01
    0.008897961 = product of:
      0.07118369 = sum of:
        0.023603875 = weight(_text_:und in 3132) [ClassicSimilarity], result of:
          0.023603875 = score(doc=3132,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 3132, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
        0.023975939 = weight(_text_:der in 3132) [ClassicSimilarity], result of:
          0.023975939 = score(doc=3132,freq=16.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.4886365 = fieldWeight in 3132, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
        0.023603875 = weight(_text_:und in 3132) [ClassicSimilarity], result of:
          0.023603875 = score(doc=3132,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 3132, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
      0.125 = coord(3/24)
    
    Abstract
    Ordnungssysteme, vor allem in Form von Aktenplänen und business classifications schemes, gelten weiterhin als ein Kernelement von elektronischen Records Management Systemen. Die Rezeption und Nutzung von in den Informations- und Bibliothekswissenschaften entwickelten normativen Vorgaben und/oder Forschungsergebnissen zu Ordnungssystemen ist in der Records Management Community hingegen noch eher selten und zufällig. Aufgrund der Auswertung aktueller Fachliteratur zum Thema Records Management / Schriftgutverwaltung sowie der Erfahrungen der Autorin in zwei Lehrveranstaltungen, die die Eignung informationswissenschaftlicher Ansätze der Wissensorganisation auf Probleme der Schriftgutverwaltung überprüft haben, lässt sich eine Reihe von konkreten Empfehlungen für die Integration wissensorganisatorischer Expertise bei der Entwicklung von Records Management Systemen auf organisatorischer und inhaltlicher Ebene ableiten.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.339-354
  14. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.01
    0.0088506155 = product of:
      0.070804924 = sum of:
        0.025790704 = weight(_text_:und in 4651) [ClassicSimilarity], result of:
          0.025790704 = score(doc=4651,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 4651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.019223517 = weight(_text_:der in 4651) [ClassicSimilarity], result of:
          0.019223517 = score(doc=4651,freq=14.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.3917808 = fieldWeight in 4651, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
        0.025790704 = weight(_text_:und in 4651) [ClassicSimilarity], result of:
          0.025790704 = score(doc=4651,freq=26.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.5297484 = fieldWeight in 4651, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
      0.125 = coord(3/24)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.
    Content
    Diplomarbeit am Fachbereich Informatik der Universität Dortmund
  15. El Jerroudi, F.: Inhaltliche Erschließung in Dokumenten-Management-Systemen, dargestellt am Beispiel der KRAFTWERKSSCHULE e.V (2007) 0.01
    0.008575517 = product of:
      0.068604134 = sum of:
        0.020231893 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.020231893 = score(doc=527,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 527, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.02814035 = weight(_text_:der in 527) [ClassicSimilarity], result of:
          0.02814035 = score(doc=527,freq=30.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.5735084 = fieldWeight in 527, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
        0.020231893 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.020231893 = score(doc=527,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.41556883 = fieldWeight in 527, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
      0.125 = coord(3/24)
    
    Abstract
    Für die Schulungsdokumente der KRAFTWERKSSCHULE e.V. werden die Möglichkeiten der inhaltlichen Erschließung analysiert. Die Erschließung soll im Dokumenten-Management-System ELOprofessional realisiert werden. In der Diplomarbeit werden die Möglichkeiten der verbalen und der klassifikatorischen Erschließung sowie die Vor- und Nachteile ihres Einsatzes und deren Eignung für die Erschließung der Schulungsunterlagen der KWS diskutiert. Ziel der Diplomarbeit ist es, Ideen zu entwickeln, wie die Recherche nach inhaltlichen Aspekten der Schulungsdokumente verbessert werden kann. Eine besondere Bedeutung kommt dabei den Bilddokumenten zu. Die Diplomarbeit beginnt mit einem Kapitel über Dokumenten-Management-Systeme, wobei besonders auf deren Recherchemöglichkeiten eingegangen wird. Im Rahmen der Diplomarbeit wurde eine Ist-Analyse durchgeführt, um die bisherige Ablage- und Recherchesituation in der Kraftwerksschule e.V. zu untersuchen. Im weiteren Verlauf der Diplomarbeit wird die Nutzung von Thesauri und Klassifikationen für die Erschließung der Schulungsdokumente diskutiert. Es werden Vorschläge und Lösungsansätze für die verbale und klassifikatorische Erschließung der Lehrmaterialien präsentiert.
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften
  16. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.01
    0.008045252 = product of:
      0.04827151 = sum of:
        0.011680889 = weight(_text_:und in 5577) [ClassicSimilarity], result of:
          0.011680889 = score(doc=5577,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.23992877 = fieldWeight in 5577, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
        0.0074449074 = weight(_text_:des in 5577) [ClassicSimilarity], result of:
          0.0074449074 = score(doc=5577,freq=2.0), product of:
            0.06083074 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.021966046 = queryNorm
            0.12238726 = fieldWeight in 5577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
        0.017464826 = weight(_text_:der in 5577) [ClassicSimilarity], result of:
          0.017464826 = score(doc=5577,freq=26.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.35593814 = fieldWeight in 5577, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
        0.011680889 = weight(_text_:und in 5577) [ClassicSimilarity], result of:
          0.011680889 = score(doc=5577,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.23992877 = fieldWeight in 5577, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
      0.16666667 = coord(4/24)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  17. Kampffmeyer, U.: MoReq und MoReq2 (2009) 0.01
    0.007639044 = product of:
      0.06111235 = sum of:
        0.022079403 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3133,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
        0.016953548 = weight(_text_:der in 3133) [ClassicSimilarity], result of:
          0.016953548 = score(doc=3133,freq=8.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34551817 = fieldWeight in 3133, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
        0.022079403 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.022079403 = score(doc=3133,freq=14.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4535172 = fieldWeight in 3133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
      0.125 = coord(3/24)
    
    Abstract
    Die Abkürzung MoReq steht für Model Requirements for the Management of Electronic Records. MoReq ist der europäische Standard für das Records Management. Herausgegeben wurde der von der Europäischen Kommission beauftragte und geförderte Standard vom DLM Forum. Seit Februar 2008 ist die Version MoReq2 gültig. MoReq2 umfasst nicht nur die Anforderungen an das Records Management sondern beinhaltet auch ein XML-Schema, einen Katalog mit Testszenarien und Testdaten sowie ein Zertifizierungsverfahren für Records Management Produkte. MoReq2 deckt den gesamten Lebenszyklus von Records von ihrer Entstehung, Nutzung und Verwaltung bis zur Archivierung und Löschung ab. Verschiedene europäische Staaten haben MoReq2 bereits adaptiert und die ersten Records Management Produkte befinden sich in der Zertifizierung.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.355-363
  18. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.01
    0.007553011 = product of:
      0.06042409 = sum of:
        0.023361778 = weight(_text_:und in 3716) [ClassicSimilarity], result of:
          0.023361778 = score(doc=3716,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 3716, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.013700536 = weight(_text_:der in 3716) [ClassicSimilarity], result of:
          0.013700536 = score(doc=3716,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.27922085 = fieldWeight in 3716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.023361778 = weight(_text_:und in 3716) [ClassicSimilarity], result of:
          0.023361778 = score(doc=3716,freq=12.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.47985753 = fieldWeight in 3716, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
      0.125 = coord(3/24)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  19. Wettengel, M.; Brübach, N.; Herzog, G.: DIN-Arbeitsgremium "Archiv- und Schriftgutverwaltung" an der Erarbeitung der ISO 15489 beteiligt : Abstimmung über Norm-Entwurf läuft (2000) 0.01
    0.0073029813 = product of:
      0.05842385 = sum of:
        0.02064909 = weight(_text_:und in 5472) [ClassicSimilarity], result of:
          0.02064909 = score(doc=5472,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 5472, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5472)
        0.01712567 = weight(_text_:der in 5472) [ClassicSimilarity], result of:
          0.01712567 = score(doc=5472,freq=4.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.34902605 = fieldWeight in 5472, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.078125 = fieldNorm(doc=5472)
        0.02064909 = weight(_text_:und in 5472) [ClassicSimilarity], result of:
          0.02064909 = score(doc=5472,freq=6.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.42413816 = fieldWeight in 5472, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5472)
      0.125 = coord(3/24)
    
    Abstract
    Norm zur Archiv- und Schriftgutverwaltung
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.8, S.492-493
  20. Otten, B.A.: Funktionsprofile : Neue Herausforderung für schnelleren Informationsfluss und Kostensenkungen bei DMS und WFM (2003) 0.01
    0.0069605657 = product of:
      0.055684526 = sum of:
        0.023603875 = weight(_text_:und in 1120) [ClassicSimilarity], result of:
          0.023603875 = score(doc=1120,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 1120, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1120)
        0.008476774 = weight(_text_:der in 1120) [ClassicSimilarity], result of:
          0.008476774 = score(doc=1120,freq=2.0), product of:
            0.049067024 = queryWeight, product of:
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.021966046 = queryNorm
            0.17275909 = fieldWeight in 1120, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.2337668 = idf(docFreq=12875, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1120)
        0.023603875 = weight(_text_:und in 1120) [ClassicSimilarity], result of:
          0.023603875 = score(doc=1120,freq=16.0), product of:
            0.04868482 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.021966046 = queryNorm
            0.4848303 = fieldWeight in 1120, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1120)
      0.125 = coord(3/24)
    
    Abstract
    Im Laufe der Jahre wurden die Prozesse von Dokumentmanagementsystem (DMS) und Workflow-Management (WFM) immer besser in Informationsprozesse eingebettet. Mit Business Process Management (BPM) bezeichnet man die Verschmelzung von DMS und WFM, und auch die Integration mit dem Internet spielt hierbei eine Rolle. Content Management kann auf effiziente Weise zu einem optimalen BPM beitragen. Kommunikation in Arbeitsprozessen ist die Verwendung von Dokumenten durch Mitarbeiter untereinander. Die heutigen Entwicklungen insbesondere bei Enterprise Portals (unternehmensweite Einbettung in Arbeitsprozesse) erfordert einen direkten und automatischen Zugang zu allen Arten von "Dokumenten" in allen Prozessen. Die Erstellung von Funktionsprofilen ist ein neues und anspruchsvolles, aber auch notwen diges Hilfsmittel, um BPM erfolgreich einsetzen zu können
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.1, S.52-55

Languages

  • d 54
  • e 9

Types

  • a 48
  • x 11
  • m 3
  • el 1
  • s 1
  • More… Less…