Search (51 results, page 2 of 3)

  • × theme_ss:"Dokumentenmanagement"
  • × year_i:[2000 TO 2010}
  1. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 1400) [ClassicSimilarity], result of:
          0.010546046 = score(doc=1400,freq=18.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 1400, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
  2. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 1785) [ClassicSimilarity], result of:
          0.010546046 = score(doc=1785,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
      0.16666667 = coord(1/6)
    
  3. Mummenthey, I.; Kotte, J.; Brüdegam, J.: Schriftgutverwaltung Records Management und Records Preservation : Selbstverständnis des Staatsarchivs Hamburg in einer modernen Verwaltung (2009) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 3135) [ClassicSimilarity], result of:
          0.010546046 = score(doc=3135,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 3135, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
      0.16666667 = coord(1/6)
    
    Abstract
    Was hat ein Staatsarchiv mit Schriftgutverwaltung zu tun? Ist Schriftgutverwaltung nur ein altbackener Begriff für das moderne Records Management? Was ist Records Preservation? Und wo ist der Bezug zu Orwells Roman "1984"? Diese Fragen will der Beitrag beantworten. Im ersten Teil beschreibt Irmgard Mummenthey zunächst die Aufgaben des Staatsarchivs der Freien und Hansestadt Hamburg und erläutert Begrifflichkeiten. Sie geht dann auf Records Management als strategische Aufgabe des Staatsarchivs ein und skizziert die Bedeutung sowohl einer vertrauenswürdigen Überlieferung als auch eines Archivs selbst in einem demokratischen Rechtsstaat. Jenny Kotte stellt dann im zweiten Teil die wichtigsten Standards vor. Diese sind maßgebliche Instrumente, um den Stellenwert von Schriftgutverwaltung bzw. Records Management und damit seine Qualität zu sichern. Julia Brüdegam berichtet im dritten Teil, wie das Staatsarchiv seinen gesetzlichen Auftrag, die hamburgische Verwaltung zu beraten, praktisch umsetzt. Da die drei Autorinnen sich in ihrer täglichen Arbeit auf die öffentliche Verwaltung konzentrieren (müssen), liegt dort auch unweigerlich der Schwerpunkt dieses Beitrags.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  4. Myburgh, S.: Records organization and access (2009) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 3868) [ClassicSimilarity], result of:
          0.010546046 = score(doc=3868,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 3868, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3868)
      0.16666667 = coord(1/6)
    
    Abstract
    Records, as documents which provide evidence of business transactions that have taken place, are collected and preserved for as long as they are useful to the organization, or as is demanded by law. In order to be useful, however, they must be organized in such a way that they can easily be identified, located, accessed, and used, for whatever purpose. First, the records must be described by identifying the most useful salient characteristics; then, they are categorized in various ways, according to their age, function, level of confidentiality, privacy and security, and access to them controlled according to these categories. Records may be arranged by one of several ordinal systems, usually involving letters and numbers, but also color: these symbolically represent the characteristics that are considered as important descriptors. Thus, records can be accessed (or protected from access) by their category; they can be located by correspondence between terms (which may be words or numbers) used to describe characteristics and terms used in searching for particular records or records series. These principles apply to both physical and virtual records.
  5. Smith, C.: Building an Internet archive system for the British Broadcasting Corporation (2005) 0.00
    0.0017576744 = product of:
      0.010546046 = sum of:
        0.010546046 = weight(_text_:in in 5593) [ClassicSimilarity], result of:
          0.010546046 = score(doc=5593,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18034597 = fieldWeight in 5593, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5593)
      0.16666667 = coord(1/6)
    
    Abstract
    The amount of digital content produced at academic research institutions is large, and libraries and archives at these institutions have a responsibility to bring this digital material under curatorial control in order to manage and preserve it over time. But this is a daunting task with few proven models, requiring new technology, policies, procedures, core staff competencies, and cost models. The MIT Libraries are working with the DSpace(TM) open-source digital repository platform to explore the problem of capturing research and teaching material in any digital format and preserving it over time. By collaborating on this problem with other research institutions using the DSpace platform in the United States, the United Kingdom, Europe, and other parts of the world, as well as with other important efforts in the digital preservation arena, we are beginning to see ways of managing arbitrary digital content that might make digital preservation an achievable goal.
  6. Mateika, O,: Feasibility-Studie zur Eignung der Pressedatenbank Archimedes zum Einsatz in der Pressedokumentation des Norddeutschen Rundfunks (2004) 0.00
    0.0016571515 = product of:
      0.009942909 = sum of:
        0.009942909 = weight(_text_:in in 3712) [ClassicSimilarity], result of:
          0.009942909 = score(doc=3712,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 3712, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Datenbanksystem Planet, derzeit eingesetzt als Information Retrieval System in Pressearchiven innerhalb des SAD-Verbunds der ARD, soll durch ein mindestens gleichwertiges System abgelöst werden. Archimedes, derzeit eingesetzt im Dokumentationsbereich des Westdeutschen Rundfunks Köln, ist eine mögliche Alternative. Ob es die Vorgaben und Anforderungen erfüllt, wird mit Hilfe einer Feasibility-Studie geprüft, notwendige Funktionalitäten und strategisch-qualitative Anforderungen bewertet.
  7. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.00
    0.0016571515 = product of:
      0.009942909 = sum of:
        0.009942909 = weight(_text_:in in 3716) [ClassicSimilarity], result of:
          0.009942909 = score(doc=3716,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 3716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
      0.16666667 = coord(1/6)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
  8. El Jerroudi, F.: Inhaltliche Erschließung in Dokumenten-Management-Systemen, dargestellt am Beispiel der KRAFTWERKSSCHULE e.V (2007) 0.00
    0.0015221909 = product of:
      0.009133145 = sum of:
        0.009133145 = weight(_text_:in in 527) [ClassicSimilarity], result of:
          0.009133145 = score(doc=527,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1561842 = fieldWeight in 527, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
      0.16666667 = coord(1/6)
    
    Abstract
    Für die Schulungsdokumente der KRAFTWERKSSCHULE e.V. werden die Möglichkeiten der inhaltlichen Erschließung analysiert. Die Erschließung soll im Dokumenten-Management-System ELOprofessional realisiert werden. In der Diplomarbeit werden die Möglichkeiten der verbalen und der klassifikatorischen Erschließung sowie die Vor- und Nachteile ihres Einsatzes und deren Eignung für die Erschließung der Schulungsunterlagen der KWS diskutiert. Ziel der Diplomarbeit ist es, Ideen zu entwickeln, wie die Recherche nach inhaltlichen Aspekten der Schulungsdokumente verbessert werden kann. Eine besondere Bedeutung kommt dabei den Bilddokumenten zu. Die Diplomarbeit beginnt mit einem Kapitel über Dokumenten-Management-Systeme, wobei besonders auf deren Recherchemöglichkeiten eingegangen wird. Im Rahmen der Diplomarbeit wurde eine Ist-Analyse durchgeführt, um die bisherige Ablage- und Recherchesituation in der Kraftwerksschule e.V. zu untersuchen. Im weiteren Verlauf der Diplomarbeit wird die Nutzung von Thesauri und Klassifikationen für die Erschließung der Schulungsdokumente diskutiert. Es werden Vorschläge und Lösungsansätze für die verbale und klassifikatorische Erschließung der Lehrmaterialien präsentiert.
  9. Krüger, J.D.: Kostenlos und gut : Web-Content-Management-Systeme im Überblick (2003) 0.00
    0.0014647287 = product of:
      0.008788372 = sum of:
        0.008788372 = weight(_text_:in in 1726) [ClassicSimilarity], result of:
          0.008788372 = score(doc=1726,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.15028831 = fieldWeight in 1726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=1726)
      0.16666667 = coord(1/6)
    
    Abstract
    WCMS werden in allen Preisklassen angeboten. Dank Open Source-Lizenz sind daneben auch kostenlose Systeme am Markt, die durchaus mit kommerziellen Systemen konkurrieren können
  10. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.00
    0.0014647287 = product of:
      0.008788372 = sum of:
        0.008788372 = weight(_text_:in in 802) [ClassicSimilarity], result of:
          0.008788372 = score(doc=802,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.15028831 = fieldWeight in 802, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
      0.16666667 = coord(1/6)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
  11. Lam-Adesina, A.M.; Jones, G.J.F.: Examining and improving the effectiveness of relevance feedback for retrieval of scanned text documents (2006) 0.00
    0.0014647287 = product of:
      0.008788372 = sum of:
        0.008788372 = weight(_text_:in in 977) [ClassicSimilarity], result of:
          0.008788372 = score(doc=977,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.15028831 = fieldWeight in 977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=977)
      0.16666667 = coord(1/6)
    
    Abstract
    Important legacy paper documents are digitized and collected in online accessible archives. This enables the preservation, sharing, and significantly the searching of these documents. The text contents of these document images can be transcribed automatically using OCR systems and then stored in an information retrieval system. However, OCR systems make errors in character recognition which have previously been shown to impact on document retrieval behaviour. In particular relevance feedback query-expansion methods, which are often effective for improving electronic text retrieval, are observed to be less reliable for retrieval of scanned document images. Our experimental examination of the effects of character recognition errors on an ad hoc OCR retrieval task demonstrates that, while baseline information retrieval can remain relatively unaffected by transcription errors, relevance feedback via query expansion becomes highly unstable. This paper examines the reason for this behaviour, and introduces novel modifications to standard relevance feedback methods. These methods are shown experimentally to improve the effectiveness of relevance feedback for errorful OCR transcriptions. The new methods combine similar recognised character strings based on term collection frequency and a string edit-distance measure. The techniques are domain independent and make no use of external resources such as dictionaries or training data.
  12. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.00
    0.0014500075 = product of:
      0.008700045 = sum of:
        0.008700045 = weight(_text_:in in 2192) [ClassicSimilarity], result of:
          0.008700045 = score(doc=2192,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14877784 = fieldWeight in 2192, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.16666667 = coord(1/6)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  13. Vasudevan, M.C.; Mohan, M.; Kapoor, A.: Information system for knowledge management in the specialized division of a hospital (2006) 0.00
    0.0014500075 = product of:
      0.008700045 = sum of:
        0.008700045 = weight(_text_:in in 1499) [ClassicSimilarity], result of:
          0.008700045 = score(doc=1499,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14877784 = fieldWeight in 1499, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1499)
      0.16666667 = coord(1/6)
    
    Abstract
    Information systems are essential support for knowledge management in all types of enterprises. This paper describes the evolution and development of a specialized hospital information system. The system is designed to integrate for access and retrieval from databases of patients' case records, and related images - CATSCAN, MRI, X-Ray - and to enable online access to full text of relevant papers on the Internet/WWW. The generation of information products and services from the system is briefly described.
  14. Hare, C.E.; McLeod, J.: How to manage records in the e-environment : 2nd ed. (2006) 0.00
    0.0014500075 = product of:
      0.008700045 = sum of:
        0.008700045 = weight(_text_:in in 1749) [ClassicSimilarity], result of:
          0.008700045 = score(doc=1749,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14877784 = fieldWeight in 1749, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1749)
      0.16666667 = coord(1/6)
    
    Abstract
    A practical approach to developing and operating an effective programme to manage hybrid records within an organization. This title positions records management as an integral business function linked to the organisation's business aims and objectives. The authors also address the records requirements of new and significant pieces of legislation, such as data protection and freedom of information, as well as exploring strategies for managing electronic records. Bullet points, checklists and examples assist the reader throughout, making this a one-stop resource for information in this area.
  15. Kampffmeyer, U.: MoReq und MoReq2 (2009) 0.00
    0.0014500075 = product of:
      0.008700045 = sum of:
        0.008700045 = weight(_text_:in in 3133) [ClassicSimilarity], result of:
          0.008700045 = score(doc=3133,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14877784 = fieldWeight in 3133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Abkürzung MoReq steht für Model Requirements for the Management of Electronic Records. MoReq ist der europäische Standard für das Records Management. Herausgegeben wurde der von der Europäischen Kommission beauftragte und geförderte Standard vom DLM Forum. Seit Februar 2008 ist die Version MoReq2 gültig. MoReq2 umfasst nicht nur die Anforderungen an das Records Management sondern beinhaltet auch ein XML-Schema, einen Katalog mit Testszenarien und Testdaten sowie ein Zertifizierungsverfahren für Records Management Produkte. MoReq2 deckt den gesamten Lebenszyklus von Records von ihrer Entstehung, Nutzung und Verwaltung bis zur Archivierung und Löschung ab. Verschiedene europäische Staaten haben MoReq2 bereits adaptiert und die ersten Records Management Produkte befinden sich in der Zertifizierung.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  16. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.00
    0.0014351354 = product of:
      0.008610812 = sum of:
        0.008610812 = weight(_text_:in in 5577) [ClassicSimilarity], result of:
          0.008610812 = score(doc=5577,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14725187 = fieldWeight in 5577, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
      0.16666667 = coord(1/6)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  17. Mikro-Univers : 2. Workshop "Digitalisierung, Erschließung, Internetpräsentation und Langzeitarchivierung" (2004) 0.00
    0.0014351354 = product of:
      0.008610812 = sum of:
        0.008610812 = weight(_text_:in in 3042) [ClassicSimilarity], result of:
          0.008610812 = score(doc=3042,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14725187 = fieldWeight in 3042, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Fa. Mikro-Univers GmbH führte am 09.11.2004 in ihren Räumen einen Workshop durch, an dem 34 Bibliothekare und Archivare teilnahmen. Bezogen auf Arbeitsergebnisse aus zwei aktuellen Projekten wurden neue Technologien bei der Digitalisierung und Erschließung vorgestellt und diskutiert. Eine Erweiterung der im Bibliotheksbereich eingesetzten Internetsoftware "Chopin" (www.dilib.info) mit integrierter Bestellfunktion sowie eine Technologie zur Ausgabe von Images auf Mikrofilm wurden präsentiert. Im Modellprojekt "Berlinisch" wird der Bestand der Zentral- und Landesbibliothek Berlin zum Berliner Dialekt aufbereitet. Anders als bei vielen Digitalisierungsprojekten sollen neben der Webpräsentation der Images auch Volltexte erzeugt und die digitalisierten Images für "Print an demand" (PoD) genutzt werden. Die Nutzung der Images für die Druckvorstufe bringt hohe Anforderungen: Beim Scannen mit einem Buchscanner wurde als Auflösung 600 dpi bitonal gewählt. Einige Images, die in Graustufen 300 dpi gescannt werden mussten, wurden auf 600 dpi bitonal umgerechnet. Anschließend ist eine - weitgehend automatisierte - Imagebearbeitung erforderlich um Flecken zu entfernen, den Satzspiegel gerade zu rücken und zu zentrieren sowie einen definierten Druckrand hinzuzufügen. Ausgabeformat für PoD sind PDF-Dateien. Mit der Software "docWORKS" erfolgte die Imageanalyse, die automatische Strukturierung und die Erzeugung eines Volltextes. Die einzelnen Strukturelemente wie Titelblatt, Inhaltsverzeichnis, Kapitelüberschriften und Abbildungen wurden mit dem Volltext als XML-Dateien abgelegt. Die Besonderheit besteht bei diesem Projekt darin, dass ein Großteil der Volltexte aus Frakturschriften erzeugt wurde. Dabei ist das Auslesen von Images, in denen Frakturschriften - bzw. Antiqua- und Frakturschriften gemeinsam - vorkommen, mit hoher Genauigkeit erreicht worden. Für die Darstellung und Suche im Internet sind diese Daten und Images in die Internetsoftware "Chopin" integriert worden. Damit ist sowohl ein Zugriff auf den Bestand über die automatisch erzeugten Strukturelemente als auch über eine Volltextsuche möglich. Der Benutzer kann dann über eine integrierte Bestellfunktion die gewünschten Titel (Bücher oder Teile von Büchern) als PDF-Datei herunterladen oder als Ausdruck über PoD bestellen. Die PDF-Dateien enthalten die komprimierten Images in 300 dpi, aber auch die Strukturinformationen aus "docWorks" und in einem unsichtbaren Layer den recherchierbaren Volltext. Die PDF-Dateien sind auch bei ganzen Büchern meist nur wenige MByte groß.
  18. Automatische Klassifikation und Extraktion in Documentum (2005) 0.00
    0.0012684924 = product of:
      0.0076109543 = sum of:
        0.0076109543 = weight(_text_:in in 3974) [ClassicSimilarity], result of:
          0.0076109543 = score(doc=3974,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1301535 = fieldWeight in 3974, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
      0.16666667 = coord(1/6)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  19. Behling, U.: Vom Medienarchiv zur Researchabteilung (2001) 0.00
    0.0012428637 = product of:
      0.007457182 = sum of:
        0.007457182 = weight(_text_:in in 5864) [ClassicSimilarity], result of:
          0.007457182 = score(doc=5864,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.12752387 = fieldWeight in 5864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
      0.16666667 = coord(1/6)
    
    Abstract
    Vor 20 Jahren war es für »bewährte« Mitarbeiter fast noch eine Strafe: Ab ins Archiv! Inzwischen haben sich die Anforderungen an Pressearchive und damit auch an die Mitarbeiter völlig gewandelt. Eine Konsequenz dieser Entwicklung stellt die organisatorische Trennung von Datenbankproduktion (seit über zwei Jahren bei Genios) und Dokumentation dar. Das ehemalige Pressearchiv entwickelt sich weiter in Richtung einer Researchabteilung, die zunehmend komplexere Informationsprodukte wie Tabellen Grafiken, Ranglisten usw. für die verschiedenen Verlagsobjekte druckfertig zur Verfügung stellt. Die Bedeutung der dokumentarischen Ausbildung von Mitarbeitern tritt damit gegenüber volks- und betriebswirtschaftlichen Kenntnissen zunehmend in den Hintergrund. Der eigene Informationsinput besteht nach wie vor aus einer konventionellen Pressedokumentation, eigener Nicht-Pressedatenbanken sowie einem CD-ROM-Angebot für die gesamte Verlagsgruppe Handelsblatt
  20. Mertens, T.: Vergleich von Archiv- und Dokumentenmanagementsystemen für die betriebliche Anwendung (2000) 0.00
    0.0012428637 = product of:
      0.007457182 = sum of:
        0.007457182 = weight(_text_:in in 4651) [ClassicSimilarity], result of:
          0.007457182 = score(doc=4651,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.12752387 = fieldWeight in 4651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=4651)
      0.16666667 = coord(1/6)
    
    Abstract
    Ziel der vorliegenden Arbeit ist die Untersuchung der funktionalen und nicht-funktionalen Aspekte von Dokumentenmanagement- und Archivsystemen. Hierzu zählen auf der Seite der nicht-funktionalen Aspekte z.B. Benutzeroberfläche, Architektur, Interoperabilität, Integrationsfähigkeit etc. Diese Aspekte werden klassifiziert, priorisiert und bewertet. Hierbei müssen auch die Beziehungen zwischen den einzelnen Aspekten wie z.B. Substitutivität, Komplementarität und Konkurrenz berücksichtigt werden. Das Ergebnis dieser Untersuchung ist eine sog. Zielhierarchie. Anschließend sollen in einer Marktanalyse verschiedene Dokumentenmanagement- und Archivsysteme verglichen werden. Hierzu wird eine Bewertungsmethode, die die o.g. Zielhierarchie berücksichtigt, erarbeitet und danach auf die Menge der zu untersuchenden Systeme angewendet. Das Ergebnis dieser Marktanalyse ist die Beschreibung von Dokumentenmanagement- und Archivsystemen und die Ermittlung gemeinsamer funktionaler und nicht-funktionaler Aspekte, die viele dieser Systeme gemein haben und somit ein Anzeichen für grundlegende Funktionalität ist, aber auch das Erkennen von fehlenden, aber notwendigen bzw. wünschenswerten Funktionalitäten. Aufgrund dieses Ziels und der Nutzung eines formalen Bewertungsverfahrens unterscheidet sich die vorliegenden Arbeit von anderen Publikationen, in denen ebenfalls Dokumentenmanagement- und Archivsysteme verglichen werden.

Languages

  • d 36
  • e 15

Types

  • a 38
  • x 8
  • m 4
  • el 1
  • s 1
  • More… Less…