Search (57 results, page 2 of 3)

  • × theme_ss:"Dokumentenmanagement"
  • × year_i:[2000 TO 2010}
  1. Booms, U.: Daten, User und Producer : Multifunktionale Anforderungen an die Datenbanken bei Spiegel Online (2003) 0.00
    0.0011868436 = product of:
      0.022550028 = sum of:
        0.022550028 = weight(_text_:und in 1510) [ClassicSimilarity], result of:
          0.022550028 = score(doc=1510,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 1510, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1510)
      0.05263158 = coord(1/19)
    
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  2. Schütz, T.: Dokumentenmanagement (2004) 0.00
    0.0011868436 = product of:
      0.022550028 = sum of:
        0.022550028 = weight(_text_:und in 2929) [ClassicSimilarity], result of:
          0.022550028 = score(doc=2929,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 2929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
      0.05263158 = coord(1/19)
    
    Abstract
    Das Dokumentenmanagement soll das betriebliche Informationsmanagement um geeignete Methoden zur hardware- und softwaregestützten Verarbeitung aller Arten von Dokumenten unter organisatorischen Rahmenbedingungen (z.B. personelle oder rechtliche Aspekte) erweitern. Einem Dokumentenmanagement kommt dabei eine Integrations- und Dokumentationsfunktion zu, die Daten und Dokumente aus unterschiedlichen Quellen entgegennimmt. Dokumente kommen aus unterschiedlicher Anwendungssoftware (z.B. SAP R/3 für die Auftragserfassung oder Leistungsabrechnung), Büro-Software (z.B. Office-Anwendungen für die Erstellung eines Angebotes oder eines Vertrages) oder aus unterschiedlichen Abteilungen, z.B. stellen Entwicklungsabteilungen Post Sales-Dokumentationen (Bedienungshandbücher, Montage- oder Aufbauanleitungen) und Marketingabteilungen Pre Sales-Dokumentationen (Werbebroschüren, Preislisten) bereit. Das Dokumentenmanagement umfasst dabei den kompletten "DokumentLife-Cycle": das Erstellen, Digitalisieren, Indizieren, Archivieren, Wiederfinden, Weiterleiten und Vernichten von Dokumenten. Hard- und Softwareunterstützung erhält das Dokumentenmanagement durch Dokumentenmanagementsysteme.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  3. El Jerroudi, F.: Inhaltliche Erschließung in Dokumenten-Management-Systemen, dargestellt am Beispiel der KRAFTWERKSSCHULE e.V (2007) 0.00
    0.0011868436 = product of:
      0.022550028 = sum of:
        0.022550028 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.022550028 = score(doc=527,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.41556883 = fieldWeight in 527, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=527)
      0.05263158 = coord(1/19)
    
    Abstract
    Für die Schulungsdokumente der KRAFTWERKSSCHULE e.V. werden die Möglichkeiten der inhaltlichen Erschließung analysiert. Die Erschließung soll im Dokumenten-Management-System ELOprofessional realisiert werden. In der Diplomarbeit werden die Möglichkeiten der verbalen und der klassifikatorischen Erschließung sowie die Vor- und Nachteile ihres Einsatzes und deren Eignung für die Erschließung der Schulungsunterlagen der KWS diskutiert. Ziel der Diplomarbeit ist es, Ideen zu entwickeln, wie die Recherche nach inhaltlichen Aspekten der Schulungsdokumente verbessert werden kann. Eine besondere Bedeutung kommt dabei den Bilddokumenten zu. Die Diplomarbeit beginnt mit einem Kapitel über Dokumenten-Management-Systeme, wobei besonders auf deren Recherchemöglichkeiten eingegangen wird. Im Rahmen der Diplomarbeit wurde eine Ist-Analyse durchgeführt, um die bisherige Ablage- und Recherchesituation in der Kraftwerksschule e.V. zu untersuchen. Im weiteren Verlauf der Diplomarbeit wird die Nutzung von Thesauri und Klassifikationen für die Erschließung der Schulungsdokumente diskutiert. Es werden Vorschläge und Lösungsansätze für die verbale und klassifikatorische Erschließung der Lehrmaterialien präsentiert.
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften
  4. Fenske, M.: Planung eines digitalen Parlamentsarchivs (2000) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 5438) [ClassicSimilarity], result of:
          0.02126037 = score(doc=5438,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 5438, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
      0.05263158 = coord(1/19)
    
    Abstract
    Am Beispiel des Schleswig-Holsteinischen Landtags wird das Stufenkonzept eines digitalen Parlamentsarchivs entwickelt. Hierbei werden vor allem Kosten -Nutzen-Aspekte berücksichtigt. Das Archiv umfasst die gedruckten Parlamentsmaterialien und Gesetzblätter sowie ihre Dokumentennachweise. Es werden die Möglichkeiten der Datenübernahme, retrospektiven Digitalisierung und digitalen Langzeitarchivierung beschrieben. Die Formatauswahl orientiert sich an den unterschiedlichen Anforderungen von Bildschirm, Druck/Download und digitalem Master
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.407-414
  5. Rickenbach, J.-P.: ¬Das multimediale Archivsystem der Neuen Zürcher Zeitung (2001) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 5835) [ClassicSimilarity], result of:
          0.02126037 = score(doc=5835,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 5835, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5835)
      0.05263158 = coord(1/19)
    
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Gennis, M.: Schriftgutverwaltung und Langzeitarchivierung : Records Management (k)ein Thema an informationswissenschaftlichen Ausbildungsstätten in Deutschland? (2009) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 3129) [ClassicSimilarity], result of:
          0.02126037 = score(doc=3129,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 3129, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3129)
      0.05263158 = coord(1/19)
    
    Abstract
    Da bei der Umsetzung einer digitalen Schriftgutverwaltung Fragen der Langzeitarchivierung von Beginn an beantwortet werden müssen, besteht zwischen diesen beiden Themenfeldern ein enger Zusammenhang. Insbesondere für die Langverfügbarkeit wissenschaftlicher Daten ist eine durchdachte Schriftgutverwaltung nicht verzichtbar. Informationswissenschaftliche Ausbildungseinrichtungen in Deutschland sollten sich daher diesem Thema zuwenden und dabei von den Erfahrungen und Erkenntnissen des Verwaltungswesens profitieren.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.387-392
  7. Kampffmeyer, U.: Records Management und Schriftgutverwaltung (2009) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 3131) [ClassicSimilarity], result of:
          0.02126037 = score(doc=3131,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 3131, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3131)
      0.05263158 = coord(1/19)
    
    Abstract
    Der Begriff Records Management ist in Deutschland wenig geläufig. Die zugehörige ISO/DIN-Norm wird mit Schriftgutverwaltung übersetzt. Die Akzeptanz von Records Management entspricht nicht der Bedeutung, die die ordnungsgemäße Verwaltung und Erschließung von elektronischen Dokumenten in der öffentlichen Verwaltung und der freien Wirtschaft hat. Marktuntersuchungen haben gezeigt, dass der Einsatz von Records Management in Deutschland noch am Anfang steht.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.333-338
  8. Dalipi, B.: Dokumenten-Management und Verwendung von Metadaten bei einem Energieversorgungsunternehmen (2008) 0.00
    0.0011189668 = product of:
      0.02126037 = sum of:
        0.02126037 = weight(_text_:und in 3405) [ClassicSimilarity], result of:
          0.02126037 = score(doc=3405,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.39180204 = fieldWeight in 3405, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3405)
      0.05263158 = coord(1/19)
    
    Abstract
    Die vorliegende Arbeit befasst sich im ersten Teil mit den theoretischen Grundlagen, Aufgaben und Funktionen eines Dokumentenmanagement-Systems. In diesem Zusammenhang erklärt werden auch Metadaten, Indexierung, Thesaurus und die bekanntesten Klassifikationssysteme. Erwähnt werden auch das Semantic Web und dessen Technologien. Die Schritte der Realisierung einer SQL-Datenbank, in welcher die Metadaten abgebildet werden, werden in den praktischen Teil der Arbeit näher beschrieben.
  9. Behling, U.: Vom Medienarchiv zur Researchabteilung (2001) 0.00
    0.0011101905 = product of:
      0.02109362 = sum of:
        0.02109362 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.02109362 = score(doc=5864,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
      0.05263158 = coord(1/19)
    
    Abstract
    Vor 20 Jahren war es für »bewährte« Mitarbeiter fast noch eine Strafe: Ab ins Archiv! Inzwischen haben sich die Anforderungen an Pressearchive und damit auch an die Mitarbeiter völlig gewandelt. Eine Konsequenz dieser Entwicklung stellt die organisatorische Trennung von Datenbankproduktion (seit über zwei Jahren bei Genios) und Dokumentation dar. Das ehemalige Pressearchiv entwickelt sich weiter in Richtung einer Researchabteilung, die zunehmend komplexere Informationsprodukte wie Tabellen Grafiken, Ranglisten usw. für die verschiedenen Verlagsobjekte druckfertig zur Verfügung stellt. Die Bedeutung der dokumentarischen Ausbildung von Mitarbeitern tritt damit gegenüber volks- und betriebswirtschaftlichen Kenntnissen zunehmend in den Hintergrund. Der eigene Informationsinput besteht nach wie vor aus einer konventionellen Pressedokumentation, eigener Nicht-Pressedatenbanken sowie einem CD-ROM-Angebot für die gesamte Verlagsgruppe Handelsblatt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  10. Mummenthey, I.; Kotte, J.; Brüdegam, J.: Schriftgutverwaltung Records Management und Records Preservation : Selbstverständnis des Staatsarchivs Hamburg in einer modernen Verwaltung (2009) 0.00
    0.0011101905 = product of:
      0.02109362 = sum of:
        0.02109362 = weight(_text_:und in 3135) [ClassicSimilarity], result of:
          0.02109362 = score(doc=3135,freq=14.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.38872904 = fieldWeight in 3135, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
      0.05263158 = coord(1/19)
    
    Abstract
    Was hat ein Staatsarchiv mit Schriftgutverwaltung zu tun? Ist Schriftgutverwaltung nur ein altbackener Begriff für das moderne Records Management? Was ist Records Preservation? Und wo ist der Bezug zu Orwells Roman "1984"? Diese Fragen will der Beitrag beantworten. Im ersten Teil beschreibt Irmgard Mummenthey zunächst die Aufgaben des Staatsarchivs der Freien und Hansestadt Hamburg und erläutert Begrifflichkeiten. Sie geht dann auf Records Management als strategische Aufgabe des Staatsarchivs ein und skizziert die Bedeutung sowohl einer vertrauenswürdigen Überlieferung als auch eines Archivs selbst in einem demokratischen Rechtsstaat. Jenny Kotte stellt dann im zweiten Teil die wichtigsten Standards vor. Diese sind maßgebliche Instrumente, um den Stellenwert von Schriftgutverwaltung bzw. Records Management und damit seine Qualität zu sichern. Julia Brüdegam berichtet im dritten Teil, wie das Staatsarchiv seinen gesetzlichen Auftrag, die hamburgische Verwaltung zu beraten, praktisch umsetzt. Da die drei Autorinnen sich in ihrer täglichen Arbeit auf die öffentliche Verwaltung konzentrieren (müssen), liegt dort auch unweigerlich der Schwerpunkt dieses Beitrags.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.369-382
  11. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.00
    0.0011057763 = product of:
      0.021009749 = sum of:
        0.021009749 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.021009749 = score(doc=1718,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
  12. Automatische Klassifikation und Extraktion in Documentum (2005) 0.00
    0.0011057763 = product of:
      0.021009749 = sum of:
        0.021009749 = weight(_text_:und in 3974) [ClassicSimilarity], result of:
          0.021009749 = score(doc=3974,freq=20.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3871834 = fieldWeight in 3974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
      0.05263158 = coord(1/19)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.276
  13. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.00
    0.0010466976 = product of:
      0.019887256 = sum of:
        0.019887256 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.019887256 = score(doc=1400,freq=28.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.36649725 = fieldWeight in 1400, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.05263158 = coord(1/19)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  14. Mikro-Univers : 2. Workshop "Digitalisierung, Erschließung, Internetpräsentation und Langzeitarchivierung" (2004) 0.00
    0.0010086232 = product of:
      0.01916384 = sum of:
        0.01916384 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.01916384 = score(doc=3042,freq=26.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.3531656 = fieldWeight in 3042, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
      0.05263158 = coord(1/19)
    
    Abstract
    Die Fa. Mikro-Univers GmbH führte am 09.11.2004 in ihren Räumen einen Workshop durch, an dem 34 Bibliothekare und Archivare teilnahmen. Bezogen auf Arbeitsergebnisse aus zwei aktuellen Projekten wurden neue Technologien bei der Digitalisierung und Erschließung vorgestellt und diskutiert. Eine Erweiterung der im Bibliotheksbereich eingesetzten Internetsoftware "Chopin" (www.dilib.info) mit integrierter Bestellfunktion sowie eine Technologie zur Ausgabe von Images auf Mikrofilm wurden präsentiert. Im Modellprojekt "Berlinisch" wird der Bestand der Zentral- und Landesbibliothek Berlin zum Berliner Dialekt aufbereitet. Anders als bei vielen Digitalisierungsprojekten sollen neben der Webpräsentation der Images auch Volltexte erzeugt und die digitalisierten Images für "Print an demand" (PoD) genutzt werden. Die Nutzung der Images für die Druckvorstufe bringt hohe Anforderungen: Beim Scannen mit einem Buchscanner wurde als Auflösung 600 dpi bitonal gewählt. Einige Images, die in Graustufen 300 dpi gescannt werden mussten, wurden auf 600 dpi bitonal umgerechnet. Anschließend ist eine - weitgehend automatisierte - Imagebearbeitung erforderlich um Flecken zu entfernen, den Satzspiegel gerade zu rücken und zu zentrieren sowie einen definierten Druckrand hinzuzufügen. Ausgabeformat für PoD sind PDF-Dateien. Mit der Software "docWORKS" erfolgte die Imageanalyse, die automatische Strukturierung und die Erzeugung eines Volltextes. Die einzelnen Strukturelemente wie Titelblatt, Inhaltsverzeichnis, Kapitelüberschriften und Abbildungen wurden mit dem Volltext als XML-Dateien abgelegt. Die Besonderheit besteht bei diesem Projekt darin, dass ein Großteil der Volltexte aus Frakturschriften erzeugt wurde. Dabei ist das Auslesen von Images, in denen Frakturschriften - bzw. Antiqua- und Frakturschriften gemeinsam - vorkommen, mit hoher Genauigkeit erreicht worden. Für die Darstellung und Suche im Internet sind diese Daten und Images in die Internetsoftware "Chopin" integriert worden. Damit ist sowohl ein Zugriff auf den Bestand über die automatisch erzeugten Strukturelemente als auch über eine Volltextsuche möglich. Der Benutzer kann dann über eine integrierte Bestellfunktion die gewünschten Titel (Bücher oder Teile von Büchern) als PDF-Datei herunterladen oder als Ausdruck über PoD bestellen. Die PDF-Dateien enthalten die komprimierten Images in 300 dpi, aber auch die Strukturinformationen aus "docWorks" und in einem unsichtbaren Layer den recherchierbaren Volltext. Die PDF-Dateien sind auch bei ganzen Büchern meist nur wenige MByte groß.
  15. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.00
    9.890363E-4 = product of:
      0.018791689 = sum of:
        0.018791689 = weight(_text_:und in 5651) [ClassicSimilarity], result of:
          0.018791689 = score(doc=5651,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 5651, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
      0.05263158 = coord(1/19)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
  16. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.00
    9.890363E-4 = product of:
      0.018791689 = sum of:
        0.018791689 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.018791689 = score(doc=5863,freq=16.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.05263158 = coord(1/19)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.00
    9.890363E-4 = product of:
      0.018791689 = sum of:
        0.018791689 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.018791689 = score(doc=3128,freq=4.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34630734 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.05263158 = coord(1/19)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.365-368
  18. Frohmann, B.: Revisiting "what is a document?" (2009) 0.00
    9.82633E-4 = product of:
      0.018670026 = sum of:
        0.018670026 = product of:
          0.037340052 = sum of:
            0.037340052 = weight(_text_:allgemein in 2837) [ClassicSimilarity], result of:
              0.037340052 = score(doc=2837,freq=2.0), product of:
                0.12864152 = queryWeight, product of:
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.024482876 = queryNorm
                0.2902644 = fieldWeight in 2837, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.254347 = idf(docFreq=627, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=2837)
          0.5 = coord(1/2)
      0.05263158 = coord(1/19)
    
    Theme
    Katalogfragen allgemein
  19. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.00
    9.79096E-4 = product of:
      0.018602824 = sum of:
        0.018602824 = weight(_text_:und in 2192) [ClassicSimilarity], result of:
          0.018602824 = score(doc=2192,freq=8.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.34282678 = fieldWeight in 2192, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.05263158 = coord(1/19)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  20. Siegling, I.: Dateien auf dem Index : Dokumentenmanagement zu Hause (2000) 0.00
    9.690537E-4 = product of:
      0.01841202 = sum of:
        0.01841202 = weight(_text_:und in 5320) [ClassicSimilarity], result of:
          0.01841202 = score(doc=5320,freq=6.0), product of:
            0.05426304 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.024482876 = queryNorm
            0.33931053 = fieldWeight in 5320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5320)
      0.05263158 = coord(1/19)
    
    Abstract
    Verzeichnisse auf der Festplatte, Unterordner, Dateien - die Daten, auf die man gerade wieder zugreifen möchte, könnten überall liegen. Dokumentenmanagement-Systeme wollen helfen, diese Informationen anhand ihres Inhaltes zu strukturieren, damit man sie themenbezogen und schnell wieder finden kann. Solche Programmpakete sind oft groß und teuer, es gibt aber auch anbieter, die mit schlanken und preisgünstigen Programmversionen an den Heimanwender denken

Languages

  • d 55
  • e 2
  • More… Less…

Types

  • a 43
  • x 11
  • m 2
  • r 1
  • s 1
  • More… Less…