Search (16 results, page 1 of 1)

  • × theme_ss:"Dokumentenmanagement"
  • × year_i:[2000 TO 2010}
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.34
    0.33669433 = product of:
      0.58921504 = sum of:
        0.05892151 = product of:
          0.17676452 = sum of:
            0.17676452 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.17676452 = score(doc=2918,freq=2.0), product of:
                0.31451753 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.03709803 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.17676452 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17676452 = score(doc=2918,freq=2.0), product of:
            0.31451753 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03709803 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17676452 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17676452 = score(doc=2918,freq=2.0), product of:
            0.31451753 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03709803 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.17676452 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.17676452 = score(doc=2918,freq=2.0), product of:
            0.31451753 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.03709803 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5714286 = coord(4/7)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  2. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.05
    0.04603261 = product of:
      0.16111413 = sum of:
        0.14854845 = weight(_text_:digitalisierung in 1938) [ClassicSimilarity], result of:
          0.14854845 = score(doc=1938,freq=8.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.66513705 = fieldWeight in 1938, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
        0.012565679 = product of:
          0.025131358 = sum of:
            0.025131358 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.025131358 = score(doc=1938,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Thema dieser Arbeit ist eine Untersuchung des digitalen Bilderhandels. Es wird die Akzeptanz und die Nutzung von Bilddatenbanken in der Bildbranche analysiert, mit dem Ziel, ein Optimierungskonzept für die Bilddatenbank der jump Fotoagentur zu entwerfen. Zur Einführung werden die Grundlagen der Bildbranche erläutert und auf die Beteiligten und ihre Aufgabenbereiche eingegangen. Es folgt eine Darstellung der Entwicklung der Digitalisierung und den dadurch verursachten Wandel des Bildermarktes. Im Anschluss werden die Möglichkeiten des Bildmanagements und deren Zusammenhang mit der Bildvermarktung aufgezeigt. Weiterhin wird das Bildmanagement-System der jump Fotoagentur näher beschrieben. Mit Hilfe der gewonnen Ergebnisse aus der durchgeführten Befragung wird ein Konzept zur Verbesserung dieses Systems erstellt. Die Erkenntnisse werden zusammengefasst und ein Ausblick auf die Zukunft des digitalen Bilderhandels gegeben.
    Content
    Inhaltsverzeichnis: 1. Einleitung 2. Grundlagen der Bildbranche 2.1. Aufbau der Bildbranche 3. Zur Situation des Bildermarktes 3.1. Entwicklung der Digitalisierung 3.2. Internationalisierung und Global Player 3.3. Folgen der Digitalisierung 4. Bildmanagement - Bildmarketing 4.1. Kataloge 4.2. Bilddatenbanken 4.3. Portale 5. Die jump Fotoagentur 5.1. Die Agentur 5.2. Das Bildarchiv 5.3. Die Bilddatenbank 5.4. Der Digitalisierungsprozess 6. Befragung zur Nutzung der jump-Datenbank 6.1. Konzeption der Befragung 6.2. Durchuehrung der Digitalisierung 6.3. Auswertung der Befragung 6.4. Ergebnisse der Befragung 7. Konzept zur Optimierung des Bildmanagements 8. Zusammenfassung und Ausblick
    Date
    22. 6.2008 17:34:12
  3. Nelke, P.: Von der Tape-Library zum Content-Management-System : die Digitalisierung des Videoarchivs bei CNN (2003) 0.03
    0.02546545 = product of:
      0.17825814 = sum of:
        0.17825814 = weight(_text_:digitalisierung in 1517) [ClassicSimilarity], result of:
          0.17825814 = score(doc=1517,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.7981644 = fieldWeight in 1517, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.09375 = fieldNorm(doc=1517)
      0.14285715 = coord(1/7)
    
  4. Schmidtke, R.: Auswahl und Implementierung eines Onlinesystems zur Digitalisierung und Umstrukturierung des firmeninternen Branchenarchivs einer Unternehmensberatung für Mergers & Akquisitions (2004) 0.02
    0.024009056 = product of:
      0.16806339 = sum of:
        0.16806339 = weight(_text_:digitalisierung in 3715) [ClassicSimilarity], result of:
          0.16806339 = score(doc=3715,freq=4.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.7525167 = fieldWeight in 3715, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0625 = fieldNorm(doc=3715)
      0.14285715 = coord(1/7)
    
    Abstract
    Für das Branchenarchiv der Unternehmensberatung »Angermann M&A International GmbH« werden bestehende Aufgaben, Strukturen und Anforderungsprofile analysiert mit dem Ziel künftiger Digitalisierung und Umstrukturierung. Anhand des so gewonnen Kriterienkataloges werden mehrere Archivsysteme verglichen, bewertet und ausgewählt, das »vielversprechendste« (?) Programm wird genauer untersucht.
  5. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.02
    0.01984912 = product of:
      0.06947192 = sum of:
        0.05941938 = weight(_text_:digitalisierung in 1513) [ClassicSimilarity], result of:
          0.05941938 = score(doc=1513,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.2660548 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1513,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  6. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.01984912 = product of:
      0.06947192 = sum of:
        0.05941938 = weight(_text_:digitalisierung in 1515) [ClassicSimilarity], result of:
          0.05941938 = score(doc=1515,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.2660548 = fieldWeight in 1515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1515,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.2857143 = coord(2/7)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  7. Fenske, M.: Planung eines digitalen Parlamentsarchivs (2000) 0.02
    0.016976966 = product of:
      0.11883876 = sum of:
        0.11883876 = weight(_text_:digitalisierung in 5438) [ClassicSimilarity], result of:
          0.11883876 = score(doc=5438,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.5321096 = fieldWeight in 5438, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0625 = fieldNorm(doc=5438)
      0.14285715 = coord(1/7)
    
    Abstract
    Am Beispiel des Schleswig-Holsteinischen Landtags wird das Stufenkonzept eines digitalen Parlamentsarchivs entwickelt. Hierbei werden vor allem Kosten -Nutzen-Aspekte berücksichtigt. Das Archiv umfasst die gedruckten Parlamentsmaterialien und Gesetzblätter sowie ihre Dokumentennachweise. Es werden die Möglichkeiten der Datenübernahme, retrospektiven Digitalisierung und digitalen Langzeitarchivierung beschrieben. Die Formatauswahl orientiert sich an den unterschiedlichen Anforderungen von Bildschirm, Druck/Download und digitalem Master
  8. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.02
    0.016976966 = product of:
      0.11883876 = sum of:
        0.11883876 = weight(_text_:digitalisierung in 3716) [ClassicSimilarity], result of:
          0.11883876 = score(doc=3716,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.5321096 = fieldWeight in 3716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
      0.14285715 = coord(1/7)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
  9. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.01
    0.014854845 = product of:
      0.10398391 = sum of:
        0.10398391 = weight(_text_:digitalisierung in 2192) [ClassicSimilarity], result of:
          0.10398391 = score(doc=2192,freq=2.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.4655959 = fieldWeight in 2192, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.14285715 = coord(1/7)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  10. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.01
    0.012004528 = product of:
      0.08403169 = sum of:
        0.08403169 = weight(_text_:digitalisierung in 1400) [ClassicSimilarity], result of:
          0.08403169 = score(doc=1400,freq=4.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.37625834 = fieldWeight in 1400, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.14285715 = coord(1/7)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
  11. Mikro-Univers : 2. Workshop "Digitalisierung, Erschließung, Internetpräsentation und Langzeitarchivierung" (2004) 0.01
    0.012004528 = product of:
      0.08403169 = sum of:
        0.08403169 = weight(_text_:digitalisierung in 3042) [ClassicSimilarity], result of:
          0.08403169 = score(doc=3042,freq=4.0), product of:
            0.2233351 = queryWeight, product of:
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03709803 = queryNorm
            0.37625834 = fieldWeight in 3042, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.0201335 = idf(docFreq=291, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
      0.14285715 = coord(1/7)
    
    Abstract
    Die Fa. Mikro-Univers GmbH führte am 09.11.2004 in ihren Räumen einen Workshop durch, an dem 34 Bibliothekare und Archivare teilnahmen. Bezogen auf Arbeitsergebnisse aus zwei aktuellen Projekten wurden neue Technologien bei der Digitalisierung und Erschließung vorgestellt und diskutiert. Eine Erweiterung der im Bibliotheksbereich eingesetzten Internetsoftware "Chopin" (www.dilib.info) mit integrierter Bestellfunktion sowie eine Technologie zur Ausgabe von Images auf Mikrofilm wurden präsentiert. Im Modellprojekt "Berlinisch" wird der Bestand der Zentral- und Landesbibliothek Berlin zum Berliner Dialekt aufbereitet. Anders als bei vielen Digitalisierungsprojekten sollen neben der Webpräsentation der Images auch Volltexte erzeugt und die digitalisierten Images für "Print an demand" (PoD) genutzt werden. Die Nutzung der Images für die Druckvorstufe bringt hohe Anforderungen: Beim Scannen mit einem Buchscanner wurde als Auflösung 600 dpi bitonal gewählt. Einige Images, die in Graustufen 300 dpi gescannt werden mussten, wurden auf 600 dpi bitonal umgerechnet. Anschließend ist eine - weitgehend automatisierte - Imagebearbeitung erforderlich um Flecken zu entfernen, den Satzspiegel gerade zu rücken und zu zentrieren sowie einen definierten Druckrand hinzuzufügen. Ausgabeformat für PoD sind PDF-Dateien. Mit der Software "docWORKS" erfolgte die Imageanalyse, die automatische Strukturierung und die Erzeugung eines Volltextes. Die einzelnen Strukturelemente wie Titelblatt, Inhaltsverzeichnis, Kapitelüberschriften und Abbildungen wurden mit dem Volltext als XML-Dateien abgelegt. Die Besonderheit besteht bei diesem Projekt darin, dass ein Großteil der Volltexte aus Frakturschriften erzeugt wurde. Dabei ist das Auslesen von Images, in denen Frakturschriften - bzw. Antiqua- und Frakturschriften gemeinsam - vorkommen, mit hoher Genauigkeit erreicht worden. Für die Darstellung und Suche im Internet sind diese Daten und Images in die Internetsoftware "Chopin" integriert worden. Damit ist sowohl ein Zugriff auf den Bestand über die automatisch erzeugten Strukturelemente als auch über eine Volltextsuche möglich. Der Benutzer kann dann über eine integrierte Bestellfunktion die gewünschten Titel (Bücher oder Teile von Büchern) als PDF-Datei herunterladen oder als Ausdruck über PoD bestellen. Die PDF-Dateien enthalten die komprimierten Images in 300 dpi, aber auch die Strukturinformationen aus "docWorks" und in einem unsichtbaren Layer den recherchierbaren Volltext. Die PDF-Dateien sind auch bei ganzen Büchern meist nur wenige MByte groß.
  12. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.00
    0.001795097 = product of:
      0.012565679 = sum of:
        0.012565679 = product of:
          0.025131358 = sum of:
            0.025131358 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.025131358 = score(doc=3220,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    6.12.2009 17:22:17
  13. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.020105084 = score(doc=5868,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    16. 5.2001 12:22:23
  14. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1507,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1507)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 4.2003 11:45:36
  15. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.00
    0.0014360775 = product of:
      0.010052542 = sum of:
        0.010052542 = product of:
          0.020105084 = sum of:
            0.020105084 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.020105084 = score(doc=1512,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    22. 4.2003 12:09:10
  16. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.00
    0.0010770581 = product of:
      0.007539407 = sum of:
        0.007539407 = product of:
          0.015078814 = sum of:
            0.015078814 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.015078814 = score(doc=1833,freq=2.0), product of:
                0.12991099 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03709803 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.14285715 = coord(1/7)
    
    Date
    11. 5.2008 19:49:22