Search (53 results, page 3 of 3)

  • × language_ss:"d"
  • × theme_ss:"Dokumentenmanagement"
  1. Thomas, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion : das Projekt EUROMEDIA (1998) 0.01
    0.00968927 = product of:
      0.029067807 = sum of:
        0.029067807 = weight(_text_:des in 22) [ClassicSimilarity], result of:
          0.029067807 = score(doc=22,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.21635216 = fieldWeight in 22, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=22)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Einzug der digitalen Technologie in die Femsehabteilungen der Rundfunkanstalten begann vor etwa 15 Jahren mit der Einführung von datenbankgestützten Dokumentationssystemen, die den Inhalt des in den Archiven gelagerten Materials in reiner Textform erschlossen. Die bis dahin gebräuchlichen Karteikataloge ablösend, eröffneten diese Systeme durch elektronische Suchmöglichkeiten eine bis dahin nicht gekannte Flexibilität und Geschwindigkeit und damit eine signifikante Erleichterung beim Auffinden und Nutzen von archiviertem Material. Kostendruck und die rasche Zunahme an neuen Spartenkanälen, bedingt durch die Einführung des digitalen Fernsehens, verstärkt den Wunsch nach effizienter Wiederverwendung von Archivmaterial. Die Redakteure wollen dabei das Archivmaterial jederzeit, vom eigenen Schreibtisch aus, auch inhaltsbezogen recherchieren und die Suchergebnisse sofort betrachten. Verstärkte Nutzung und der Wunsch nach visueller Suche und Ergebnisdarstellung machen nicht nur die Einführung geeigneter EDV-Infrastruktur erforderlich, sondem verlangen darüber hinaus einen verstärkten dokumentarischen Aufwand. Dieser zusätzliche Aufwand kann durch geeignete computergestützte Strategien zur Inhaltsanalyse und Visualisierung verringert werden. Eine Gesamtlösung für ein digitales Medienarchiv muß geeignete Verfahren für die Digitalisierung, Analyse, Dokumentation, Recherche, Bereitstellung und Wiederverwendung von Archivmaterial bereitstellen. Das Projekt EUROMEDIA entwirft und realisiert eine offene Archivlösung für verteilte, digitale, multimediale Archive, die diese Forderungen erfüllt und die den Anspruch erhebt, sich als europäischer Standard zu etablieren
  2. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.01
    0.00968927 = product of:
      0.029067807 = sum of:
        0.029067807 = weight(_text_:des in 1824) [ClassicSimilarity], result of:
          0.029067807 = score(doc=1824,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.21635216 = fieldWeight in 1824, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
  3. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.01
    0.009591887 = product of:
      0.028775658 = sum of:
        0.028775658 = weight(_text_:des in 2192) [ClassicSimilarity], result of:
          0.028775658 = score(doc=2192,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2141777 = fieldWeight in 2192, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.33333334 = coord(1/3)
    
  4. Graner, B.; Fresenborg, M.; Lühr, A.; Seifert, J.; Sünkler, S.: Schriftgutverwaltung an der Hochschule : Entwicklung eines aufgabenorientierten Aktenplans für die Hochschule für Angewandte Wissenschaften Hamburg (2009) 0.01
    0.009591887 = product of:
      0.028775658 = sum of:
        0.028775658 = weight(_text_:des in 3134) [ClassicSimilarity], result of:
          0.028775658 = score(doc=3134,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2141777 = fieldWeight in 3134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
      0.33333334 = coord(1/3)
    
    Abstract
    Im Rahmen eines studentischen Projektes haben Studierende der HAW Hamburg im Wintersemester 2008/2009 ein Konzept für ein elektronisches Schriftgutverwaltungssystem für die Hochschulverwaltung der HAW Hamburg erarbeitet. Hierzu wurde ein aufgabenorientierter Aktenplan für die gesamte Hochschule entwickelt, ein Vorschlag für ein Rollenkonzept zur Steuerung der Zugriffsmöglichkeiten auf die Akten gemacht und das Konzept prototypisch zu Test- und Demonstrationszwecken unter Einsatz des elektronischen Schriftgutverwaltungssystems DoRIS® umgesetzt.
  5. Peters-Kottig, W.: Anwendung von OPUS für Forschungsdaten : das Beispiel eines außeruniversitären Forschungsinstituts (2018) 0.01
    0.009591887 = product of:
      0.028775658 = sum of:
        0.028775658 = weight(_text_:des in 4351) [ClassicSimilarity], result of:
          0.028775658 = score(doc=4351,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2141777 = fieldWeight in 4351, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4351)
      0.33333334 = coord(1/3)
    
    Abstract
    OPUS wurde als Dokumentenserver konzipiert und ursprünglich nicht für den Nachweis von Forschungsdaten angelegt. Mit vergleichsweise geringem Aufwand können dennoch Forschungsdaten als Supplementary Material zu Zeitschriftenbeiträgen publiziert werden. Auch reine Forschungsdatenpublikationen können via OPUS veröffentlicht werden, selbst wenn die gegenwärtig auf Textpublikationen zugeschnittene Metadatenerfassung weniger gut für die Beschreibung reiner Forschungsdaten geeignet ist. Ein Unterschied zu anderen Systemen und Anwendungsszenarien besteht in der Beschränkung, großvolumige Daten nicht innerhalb von OPUS selbst vorzuhalten. Der für das institutionelle Repository des Zuse-Instituts Berlin konzipierte pragmatische Lösungsansatz ist in OPUS ohne zusätzliche Programmierung umsetzbar und skaliert für beliebig große Forschungsdatensätze.
  6. Schöhl, W.: ¬Ein umfassendes Datenbanksystem für Print, Radio, Fernsehen und das Internet (1996) 0.01
    0.008221617 = product of:
      0.02466485 = sum of:
        0.02466485 = weight(_text_:des in 6556) [ClassicSimilarity], result of:
          0.02466485 = score(doc=6556,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.18358089 = fieldWeight in 6556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6556)
      0.33333334 = coord(1/3)
    
    Abstract
    Es wird ein Datenbanksystem vorgestellt, mit dem die Arbeit in Presse- sowie Informations- und Dokumentationsabteilungen (IuD-Abteilungen) von Unternehmen und Regierungsstellen im Sinne des Workgrouping so gut koordiniert werden kann, daß Doppelarbeit weitgehend vermieden wird und beide Abteilungen einen Zusatznutzen haben. Das gesamte Datenbanksystem (genannt 'Multimedia-Pressesystem') besteht aus bis zu 20 miteinander verbundenen Datenbanken, die möglichst viele Archivierungsaufgaben und sonstige Arbeitsgänge von IuD- und Presseabteilungen erleichtern sollen. Zentrum dieses Pressesystems ist eine umfassende Mediendatenbank, in der alle verschiedene Dokumenttypen verwaltet und gemeinsam durchsucht werden können. Audio- und Videodateien von Radio- und Fernsehberichten können in der Datenbank selbst im Original abgehört oder betrachtet werden. Internetseiten können in der Datenbank im Volltext indexiert und aus der Datenbank heraus können auch alle Textdokumente im HTML-Format automatisch erzeugt werden. Der Beitrag zeigt, wie die Mediendatenbank all die Dokumente aufnimmt und indexiert, die bei der elektronischen Zusammenstellung eines Pressespiegels mit OCR entstehen
  7. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.008221617 = product of:
      0.02466485 = sum of:
        0.02466485 = weight(_text_:des in 6386) [ClassicSimilarity], result of:
          0.02466485 = score(doc=6386,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.18358089 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.33333334 = coord(1/3)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  8. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.01
    0.007668698 = product of:
      0.023006095 = sum of:
        0.023006095 = product of:
          0.04601219 = sum of:
            0.04601219 = weight(_text_:22 in 1788) [ClassicSimilarity], result of:
              0.04601219 = score(doc=1788,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.2708308 = fieldWeight in 1788, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1788)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Facts: Testmagazin für die Büro- & Kommunikationswelt. 1995, H.5, S.22-34
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.006851348 = product of:
      0.020554043 = sum of:
        0.020554043 = weight(_text_:des in 5863) [ClassicSimilarity], result of:
          0.020554043 = score(doc=5863,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.15298408 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.33333334 = coord(1/3)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  10. Automatische Klassifikation und Extraktion in Documentum (2005) 0.01
    0.006851348 = product of:
      0.020554043 = sum of:
        0.020554043 = weight(_text_:des in 3974) [ClassicSimilarity], result of:
          0.020554043 = score(doc=3974,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.15298408 = fieldWeight in 3974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
      0.33333334 = coord(1/3)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  11. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.01
    0.0054810783 = product of:
      0.016443234 = sum of:
        0.016443234 = weight(_text_:des in 5577) [ClassicSimilarity], result of:
          0.016443234 = score(doc=5577,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.12238726 = fieldWeight in 5577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
      0.33333334 = coord(1/3)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  12. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.01
    0.0054810783 = product of:
      0.016443234 = sum of:
        0.016443234 = weight(_text_:des in 1400) [ClassicSimilarity], result of:
          0.016443234 = score(doc=1400,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.12238726 = fieldWeight in 1400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.33333334 = coord(1/3)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
  13. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.00
    0.0043821135 = product of:
      0.01314634 = sum of:
        0.01314634 = product of:
          0.02629268 = sum of:
            0.02629268 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.02629268 = score(doc=1512,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2003 12:09:10

Years

Types

  • a 36
  • x 8
  • m 6
  • el 3
  • s 2
  • r 1
  • More… Less…