Search (20 results, page 1 of 1)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Dokumentenmanagement"
  1. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.06
    0.055212677 = product of:
      0.11042535 = sum of:
        0.11042535 = sum of:
          0.08275897 = weight(_text_:dokumente in 1507) [ClassicSimilarity], result of:
            0.08275897 = score(doc=1507,freq=4.0), product of:
              0.25999573 = queryWeight, product of:
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.05105019 = queryNorm
              0.31830895 = fieldWeight in 1507, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                5.092943 = idf(docFreq=737, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
          0.027666384 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
            0.027666384 = score(doc=1507,freq=2.0), product of:
              0.17876907 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.05105019 = queryNorm
              0.15476047 = fieldWeight in 1507, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
      0.5 = coord(1/2)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  2. Lingelbach-Hupfauer, C.: ¬Das ZDF-Modell eines Multimedia-Archivspeichersystems für Online-Dokumente (2003) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 1449) [ClassicSimilarity], result of:
              0.17555828 = score(doc=1449,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 1449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1449)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
  3. Bantin, P.: Electronic records management : a review of the work of a decade and a reflection on future directions (2002) 0.04
    0.04388957 = product of:
      0.08777914 = sum of:
        0.08777914 = product of:
          0.17555828 = sum of:
            0.17555828 = weight(_text_:dokumente in 4255) [ClassicSimilarity], result of:
              0.17555828 = score(doc=4255,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.6752353 = fieldWeight in 4255, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.09375 = fieldNorm(doc=4255)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  4. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.04
    0.040540617 = product of:
      0.081081234 = sum of:
        0.081081234 = product of:
          0.2432437 = sum of:
            0.2432437 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.2432437 = score(doc=2918,freq=2.0), product of:
                0.43280408 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.5 = coord(1/2)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  5. Ehrmann, S.: ¬Die Nadel im Bytehaufen : Finden statt suchen: Text Retrieval, Multimediadatenbanken, Dokumentenmanagement (2000) 0.04
    0.036574643 = product of:
      0.073149286 = sum of:
        0.073149286 = product of:
          0.14629857 = sum of:
            0.14629857 = weight(_text_:dokumente in 5317) [ClassicSimilarity], result of:
              0.14629857 = score(doc=5317,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.56269604 = fieldWeight in 5317, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.078125 = fieldNorm(doc=5317)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Gigabyteweise Programme, Daten, Dokumente - mit den Festplattenkapazitäten wächst automatisch auch der Sammeltrieb der Anwender. Leider bringen aber die Betriebssysteme selbst keine geeigneten Werkzeuge mit, um gesuchte Informationen, etwa Texte, Bilder, MP3-Daten oder Videoschnipsel einfach und schnell zu finden. Spezialisierte Programme müssen her
  6. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.03
    0.03167457 = product of:
      0.06334914 = sum of:
        0.06334914 = product of:
          0.12669829 = sum of:
            0.12669829 = weight(_text_:dokumente in 5651) [ClassicSimilarity], result of:
              0.12669829 = score(doc=5651,freq=6.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.4873091 = fieldWeight in 5651, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5651)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
    Form
    Elektronische Dokumente
  7. Automatische Klassifikation und Extraktion in Documentum (2005) 0.03
    0.03167457 = product of:
      0.06334914 = sum of:
        0.06334914 = product of:
          0.12669829 = sum of:
            0.12669829 = weight(_text_:dokumente in 3974) [ClassicSimilarity], result of:
              0.12669829 = score(doc=3974,freq=6.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.4873091 = fieldWeight in 3974, product of:
                  2.4494898 = tf(freq=6.0), with freq of:
                    6.0 = termFreq=6.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  8. Schütz, T.: Dokumentenmanagement (2004) 0.03
    0.031034613 = product of:
      0.062069226 = sum of:
        0.062069226 = product of:
          0.12413845 = sum of:
            0.12413845 = weight(_text_:dokumente in 2929) [ClassicSimilarity], result of:
              0.12413845 = score(doc=2929,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.47746342 = fieldWeight in 2929, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2929)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Dokumentenmanagement soll das betriebliche Informationsmanagement um geeignete Methoden zur hardware- und softwaregestützten Verarbeitung aller Arten von Dokumenten unter organisatorischen Rahmenbedingungen (z.B. personelle oder rechtliche Aspekte) erweitern. Einem Dokumentenmanagement kommt dabei eine Integrations- und Dokumentationsfunktion zu, die Daten und Dokumente aus unterschiedlichen Quellen entgegennimmt. Dokumente kommen aus unterschiedlicher Anwendungssoftware (z.B. SAP R/3 für die Auftragserfassung oder Leistungsabrechnung), Büro-Software (z.B. Office-Anwendungen für die Erstellung eines Angebotes oder eines Vertrages) oder aus unterschiedlichen Abteilungen, z.B. stellen Entwicklungsabteilungen Post Sales-Dokumentationen (Bedienungshandbücher, Montage- oder Aufbauanleitungen) und Marketingabteilungen Pre Sales-Dokumentationen (Werbebroschüren, Preislisten) bereit. Das Dokumentenmanagement umfasst dabei den kompletten "DokumentLife-Cycle": das Erstellen, Digitalisieren, Indizieren, Archivieren, Wiederfinden, Weiterleiten und Vernichten von Dokumenten. Hard- und Softwareunterstützung erhält das Dokumentenmanagement durch Dokumentenmanagementsysteme.
  9. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.03
    0.025862178 = product of:
      0.051724356 = sum of:
        0.051724356 = product of:
          0.10344871 = sum of:
            0.10344871 = weight(_text_:dokumente in 802) [ClassicSimilarity], result of:
              0.10344871 = score(doc=802,freq=4.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.3978862 = fieldWeight in 802, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=802)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
  10. Mas, S.; Zaher, L'H.; Zacklad, M.: Design and evaluation of multi-viewed knowledge system for administrative electronic document organization (2008) 0.03
    0.02560225 = product of:
      0.0512045 = sum of:
        0.0512045 = product of:
          0.102409 = sum of:
            0.102409 = weight(_text_:dokumente in 2256) [ClassicSimilarity], result of:
              0.102409 = score(doc=2256,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.39388722 = fieldWeight in 2256, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2256)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Form
    Elektronische Dokumente
  11. Smith, C.: Building an Internet archive system for the British Broadcasting Corporation (2005) 0.02
    0.021944785 = product of:
      0.04388957 = sum of:
        0.04388957 = product of:
          0.08777914 = sum of:
            0.08777914 = weight(_text_:dokumente in 5593) [ClassicSimilarity], result of:
              0.08777914 = score(doc=5593,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.33761764 = fieldWeight in 5593, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5593)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Theme
    Elektronische Dokumente
  12. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.02
    0.018287322 = product of:
      0.036574643 = sum of:
        0.036574643 = product of:
          0.073149286 = sum of:
            0.073149286 = weight(_text_:dokumente in 1824) [ClassicSimilarity], result of:
              0.073149286 = score(doc=1824,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.28134802 = fieldWeight in 1824, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1824)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
  13. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.01
    0.014629857 = product of:
      0.029259713 = sum of:
        0.029259713 = product of:
          0.058519427 = sum of:
            0.058519427 = weight(_text_:dokumente in 5577) [ClassicSimilarity], result of:
              0.058519427 = score(doc=5577,freq=2.0), product of:
                0.25999573 = queryWeight, product of:
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.05105019 = queryNorm
                0.22507842 = fieldWeight in 5577, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.092943 = idf(docFreq=737, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5577)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  14. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.01
    0.008645745 = product of:
      0.01729149 = sum of:
        0.01729149 = product of:
          0.03458298 = sum of:
            0.03458298 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.03458298 = score(doc=1938,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 6.2008 17:34:12
  15. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.01
    0.008645745 = product of:
      0.01729149 = sum of:
        0.01729149 = product of:
          0.03458298 = sum of:
            0.03458298 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.03458298 = score(doc=3220,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    6.12.2009 17:22:17
  16. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.01
    0.006916596 = product of:
      0.013833192 = sum of:
        0.013833192 = product of:
          0.027666384 = sum of:
            0.027666384 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.027666384 = score(doc=5868,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    16. 5.2001 12:22:23
  17. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.01
    0.006916596 = product of:
      0.013833192 = sum of:
        0.013833192 = product of:
          0.027666384 = sum of:
            0.027666384 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.027666384 = score(doc=1512,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2003 12:09:10
  18. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.01
    0.006916596 = product of:
      0.013833192 = sum of:
        0.013833192 = product of:
          0.027666384 = sum of:
            0.027666384 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.027666384 = score(doc=1513,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    28. 4.2003 13:35:22
  19. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.01
    0.006916596 = product of:
      0.013833192 = sum of:
        0.013833192 = product of:
          0.027666384 = sum of:
            0.027666384 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.027666384 = score(doc=1515,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    22. 4.2003 12:05:56
  20. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.01
    0.0051874467 = product of:
      0.010374893 = sum of:
        0.010374893 = product of:
          0.020749787 = sum of:
            0.020749787 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.020749787 = score(doc=1833,freq=2.0), product of:
                0.17876907 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.05105019 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.5 = coord(1/2)
    
    Date
    11. 5.2008 19:49:22