Search (107 results, page 1 of 6)

  • × theme_ss:"Dokumentenmanagement"
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.02
    0.018612692 = product of:
      0.055838075 = sum of:
        0.047636997 = product of:
          0.14291099 = sum of:
            0.14291099 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.14291099 = score(doc=2918,freq=2.0), product of:
                0.25428185 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.029993102 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.008201077 = product of:
          0.024603229 = sum of:
            0.024603229 = weight(_text_:29 in 2918) [ClassicSimilarity], result of:
              0.024603229 = score(doc=2918,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23319192 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    29. 8.2009 21:15:48
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  2. Gasterich, F.-J.: ¬Das Intranet des F.A.Z.-Archivs (2003) 0.02
    0.01718479 = product of:
      0.051554367 = sum of:
        0.030496502 = weight(_text_:des in 1334) [ClassicSimilarity], result of:
          0.030496502 = score(doc=1334,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.36716178 = fieldWeight in 1334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1334)
        0.021057867 = product of:
          0.0631736 = sum of:
            0.0631736 = weight(_text_:f in 1334) [ClassicSimilarity], result of:
              0.0631736 = score(doc=1334,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.52844554 = fieldWeight in 1334, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1334)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
  3. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.01
    0.013463996 = product of:
      0.04039199 = sum of:
        0.033619236 = weight(_text_:des in 1938) [ClassicSimilarity], result of:
          0.033619236 = score(doc=1938,freq=14.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.40475783 = fieldWeight in 1938, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
        0.0067727524 = product of:
          0.020318257 = sum of:
            0.020318257 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.020318257 = score(doc=1938,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Thema dieser Arbeit ist eine Untersuchung des digitalen Bilderhandels. Es wird die Akzeptanz und die Nutzung von Bilddatenbanken in der Bildbranche analysiert, mit dem Ziel, ein Optimierungskonzept für die Bilddatenbank der jump Fotoagentur zu entwerfen. Zur Einführung werden die Grundlagen der Bildbranche erläutert und auf die Beteiligten und ihre Aufgabenbereiche eingegangen. Es folgt eine Darstellung der Entwicklung der Digitalisierung und den dadurch verursachten Wandel des Bildermarktes. Im Anschluss werden die Möglichkeiten des Bildmanagements und deren Zusammenhang mit der Bildvermarktung aufgezeigt. Weiterhin wird das Bildmanagement-System der jump Fotoagentur näher beschrieben. Mit Hilfe der gewonnen Ergebnisse aus der durchgeführten Befragung wird ein Konzept zur Verbesserung dieses Systems erstellt. Die Erkenntnisse werden zusammengefasst und ein Ausblick auf die Zukunft des digitalen Bilderhandels gegeben.
    Content
    Inhaltsverzeichnis: 1. Einleitung 2. Grundlagen der Bildbranche 2.1. Aufbau der Bildbranche 3. Zur Situation des Bildermarktes 3.1. Entwicklung der Digitalisierung 3.2. Internationalisierung und Global Player 3.3. Folgen der Digitalisierung 4. Bildmanagement - Bildmarketing 4.1. Kataloge 4.2. Bilddatenbanken 4.3. Portale 5. Die jump Fotoagentur 5.1. Die Agentur 5.2. Das Bildarchiv 5.3. Die Bilddatenbank 5.4. Der Digitalisierungsprozess 6. Befragung zur Nutzung der jump-Datenbank 6.1. Konzeption der Befragung 6.2. Durchuehrung der Digitalisierung 6.3. Auswertung der Befragung 6.4. Ergebnisse der Befragung 7. Konzept zur Optimierung des Bildmanagements 8. Zusammenfassung und Ausblick
    Date
    22. 6.2008 17:34:12
  4. Szulc, J.: Document management in the the Polish central catalogues (2017) 0.01
    0.0115754185 = product of:
      0.034726255 = sum of:
        0.02515833 = weight(_text_:des in 3512) [ClassicSimilarity], result of:
          0.02515833 = score(doc=3512,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.302893 = fieldWeight in 3512, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3512)
        0.009567922 = product of:
          0.028703766 = sum of:
            0.028703766 = weight(_text_:29 in 3512) [ClassicSimilarity], result of:
              0.028703766 = score(doc=3512,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.27205724 = fieldWeight in 3512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3512)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  5. Levasseur, D.: ¬L'¬enjeu de la gestion documentaire electronique (GDE) (1997) 0.01
    0.011456527 = product of:
      0.03436958 = sum of:
        0.020331 = weight(_text_:des in 1591) [ClassicSimilarity], result of:
          0.020331 = score(doc=1591,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.24477452 = fieldWeight in 1591, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1591)
        0.014038578 = product of:
          0.042115733 = sum of:
            0.042115733 = weight(_text_:f in 1591) [ClassicSimilarity], result of:
              0.042115733 = score(doc=1591,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.35229704 = fieldWeight in 1591, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1591)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Footnote
    Übers. des Titels: The challenge of electronic document management
    Language
    f
  6. Gonzalez, A.C.: Analisis y diseno de sistemas de gestion electronica de documentacion en grandes entidades (1997) 0.01
    0.010389134 = product of:
      0.031167403 = sum of:
        0.020331 = weight(_text_:des in 2923) [ClassicSimilarity], result of:
          0.020331 = score(doc=2923,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.24477452 = fieldWeight in 2923, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2923)
        0.010836403 = product of:
          0.032509208 = sum of:
            0.032509208 = weight(_text_:22 in 2923) [ClassicSimilarity], result of:
              0.032509208 = score(doc=2923,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.30952093 = fieldWeight in 2923, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=2923)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    11. 2.1999 21:02:22
    Footnote
    Übers. des Titels: Analysis and design of electronic document management systems in large enterprises
  7. Barbat, P.; Neste, E. van den; Drouhet, G.: Records management et archivistique française (1998) 0.01
    0.010260407 = product of:
      0.030781219 = sum of:
        0.017371854 = product of:
          0.05211556 = sum of:
            0.05211556 = weight(_text_:f in 2988) [ClassicSimilarity], result of:
              0.05211556 = score(doc=2988,freq=4.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.43594533 = fieldWeight in 2988, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2988)
          0.33333334 = coord(1/3)
        0.013409365 = product of:
          0.040228095 = sum of:
            0.040228095 = weight(_text_:22 in 2988) [ClassicSimilarity], result of:
              0.040228095 = score(doc=2988,freq=4.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.38301262 = fieldWeight in 2988, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2988)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    1. 8.1996 22:01:00
    21. 2.1999 15:22:35
    Language
    f
    Location
    F
  8. Meiss, B.: Information Retrieval und Dokumentmanagement im Multimedia-Zeitalter (1997) 0.01
    0.009921787 = product of:
      0.02976536 = sum of:
        0.021564282 = weight(_text_:des in 710) [ClassicSimilarity], result of:
          0.021564282 = score(doc=710,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.25962257 = fieldWeight in 710, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=710)
        0.008201077 = product of:
          0.024603229 = sum of:
            0.024603229 = weight(_text_:29 in 710) [ClassicSimilarity], result of:
              0.024603229 = score(doc=710,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.23319192 = fieldWeight in 710, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.046875 = fieldNorm(doc=710)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    "Das Buch ist ein praxisbezogenes VADEMECUM für alle, die in einer Welt der Datennetze Wissen/Informationen sammeln, ordnen und Relevantes aus der stetig anwachsenden Informationsflut wiederfinden müssen (Retrieval). Behandelt werden alle Bedingungen, die für Aufbau und Pflege einer Datenbank notwendig sind. Themen wie der Wert eines Thesaurus als Basis geordneten Wissens werden dabei ebenso erfaßt wie die Indexierungspraxis, die Vor- und Nachteile von Volltextsystemen sowie moderne Verfahren. Hier geht es um Dokument-Management-Systeme, das Prinzip des Data-Warehouse, optische Archivsysteme und Informationsverbünde. Internationale Datenbanken sowie das technische Umfeld in der Medienwelt werden bis hin zum Internet angesprochen. Ein Ausblick in die Zukunft des Dokumentars runden das Werk ab
    Date
    29. 8.1997 10:30:14
  9. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.01
    0.009593903 = product of:
      0.028781708 = sum of:
        0.022008955 = weight(_text_:des in 3220) [ClassicSimilarity], result of:
          0.022008955 = score(doc=3220,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.2649762 = fieldWeight in 3220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.0067727524 = product of:
          0.020318257 = sum of:
            0.020318257 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.020318257 = score(doc=3220,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
  10. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.01
    0.009382985 = product of:
      0.028148953 = sum of:
        0.022730751 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.022730751 = score(doc=1515,freq=10.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.0054182014 = product of:
          0.016254604 = sum of:
            0.016254604 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.016254604 = score(doc=1515,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  11. Levasseur, D.: ¬Les solutions reseau pour optimiser la gestion des documents et leur diffusion dans les organisations (Groupware, Workflow, Intranet) (1998) 0.01
    0.008592395 = product of:
      0.025777183 = sum of:
        0.015248251 = weight(_text_:des in 5111) [ClassicSimilarity], result of:
          0.015248251 = score(doc=5111,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.18358089 = fieldWeight in 5111, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=5111)
        0.010528933 = product of:
          0.0315868 = sum of:
            0.0315868 = weight(_text_:f in 5111) [ClassicSimilarity], result of:
              0.0315868 = score(doc=5111,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.26422277 = fieldWeight in 5111, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.046875 = fieldNorm(doc=5111)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Language
    f
  12. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.01
    0.008583068 = product of:
      0.025749203 = sum of:
        0.020331 = weight(_text_:des in 1513) [ClassicSimilarity], result of:
          0.020331 = score(doc=1513,freq=8.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.24477452 = fieldWeight in 1513, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.0054182014 = product of:
          0.016254604 = sum of:
            0.016254604 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.016254604 = score(doc=1513,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  13. Martin, P.; Vaillant, S.: ¬Le records management : Concept nouveau? Pratique ancienne? (1998) 0.01
    0.0085643735 = product of:
      0.02569312 = sum of:
        0.0122837555 = product of:
          0.036851265 = sum of:
            0.036851265 = weight(_text_:f in 2430) [ClassicSimilarity], result of:
              0.036851265 = score(doc=2430,freq=2.0), product of:
                0.119546086 = queryWeight, product of:
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.029993102 = queryNorm
                0.3082599 = fieldWeight in 2430, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.985786 = idf(docFreq=2232, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2430)
          0.33333334 = coord(1/3)
        0.013409365 = product of:
          0.040228095 = sum of:
            0.040228095 = weight(_text_:22 in 2430) [ClassicSimilarity], result of:
              0.040228095 = score(doc=2430,freq=4.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.38301262 = fieldWeight in 2430, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2430)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Date
    1. 8.1996 22:01:00
    31.12.1998 15:32:22
    Language
    f
  14. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.01
    0.007579623 = product of:
      0.022738868 = sum of:
        0.018675217 = weight(_text_:des in 1833) [ClassicSimilarity], result of:
          0.018675217 = score(doc=1833,freq=12.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.22483975 = fieldWeight in 1833, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.004063651 = product of:
          0.012190953 = sum of:
            0.012190953 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.012190953 = score(doc=1833,freq=2.0), product of:
                0.10503073 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029993102 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
    Date
    11. 5.2008 19:49:22
  15. Praxishandbuch Forschungsdatenmanagement (2021) 0.01
    0.0072625848 = product of:
      0.043575507 = sum of:
        0.043575507 = weight(_text_:des in 86) [ClassicSimilarity], result of:
          0.043575507 = score(doc=86,freq=12.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.5246261 = fieldWeight in 86, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=86)
      0.16666667 = coord(1/6)
    
    Abstract
    Aktuelle Geschehnisse wie das Inkrafttreten des Kodex "Leitlinien zur Sicherung guter wissenschaftlicher Praxis" der Deutschen Forschungsgemeinschaft (DFG) oder der Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) und der European Open Science Cloud (EOSC) stellen Anbietende, Produzierende und Nutzende von Forschungsdaten vor fachwissenschaftliche, technische, rechtliche und organisatorische Herausforderungen. Das Praxishandbuch Forschungsdatenmanagement behandelt umfassend alle relevanten Aspekte des Forschungsdatenmanagements und der derzeitigen Rahmenbedingungen im Datenökosystem. Insbesondere die praktischen Implikationen der Datenpolitik und des -rechts, des jeweiligen Datenmarkts, der Datenkultur, der persönlichen Qualifizierung, des Datenmanagements sowie des "FAIR"en Datentransfers und der Datennachnutzung werden untersucht. Das Praxishandbuch gibt überdies einen Überblick über Projekte, Entwicklungen und Herausforderungen beim Forschungsdatenmanagement.
  16. Schmitz-Esser, W.: ¬Die Pressedatenbank für Text und Bild des Verlagshauses Gruner + Jahr (1977) 0.01
    0.0071880943 = product of:
      0.043128565 = sum of:
        0.043128565 = weight(_text_:des in 4756) [ClassicSimilarity], result of:
          0.043128565 = score(doc=4756,freq=4.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.51924515 = fieldWeight in 4756, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
      0.16666667 = coord(1/6)
    
    Footnote
    In diesem Aufsatz wird auch der Aufbau des G+J Index ausführlich erläutert
  17. Automatische Klassifikation und Extraktion in Documentum (2005) 0.01
    0.0065137027 = product of:
      0.019541107 = sum of:
        0.012706877 = weight(_text_:des in 3974) [ClassicSimilarity], result of:
          0.012706877 = score(doc=3974,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.15298408 = fieldWeight in 3974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
        0.006834231 = product of:
          0.020502692 = sum of:
            0.020502692 = weight(_text_:29 in 3974) [ClassicSimilarity], result of:
              0.020502692 = score(doc=3974,freq=2.0), product of:
                0.10550635 = queryWeight, product of:
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.029993102 = queryNorm
                0.19432661 = fieldWeight in 3974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5176873 = idf(docFreq=3565, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.33333334 = coord(1/3)
      0.33333334 = coord(2/6)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
    Footnote
    Kontakt: LCI GmbH, Freiburger Str. 16, 16,79199 Kirchzarten, Tel.: (0 76 61) 9 89 961o, Fax: (01212) 5 37 48 29 36, info@lci-software.com, www.lci-software.com
  18. Kaestner, J.: Virtuelle Dokumente und Redundanz : Bildspeicherung von Dokumenten in optischen Speichersystemen (1993) 0.01
    0.0059298757 = product of:
      0.035579253 = sum of:
        0.035579253 = weight(_text_:des in 6476) [ClassicSimilarity], result of:
          0.035579253 = score(doc=6476,freq=2.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.4283554 = fieldWeight in 6476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=6476)
      0.16666667 = coord(1/6)
    
    Abstract
    Enthält unter anderem Bericht über das optische Speichersystem des Hessischen Landtages
  19. Eurodoc : Produkte für das Dokumentenmanagement finden und vergleichen (1998) 0.01
    0.005869055 = product of:
      0.03521433 = sum of:
        0.03521433 = weight(_text_:des in 985) [ClassicSimilarity], result of:
          0.03521433 = score(doc=985,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.42396194 = fieldWeight in 985, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=985)
      0.16666667 = coord(1/6)
    
    Abstract
    Die EURODOC-Datenbank enthält ausführliche und einheitlich strukturierte Beschreibungen von Produkten des Dokument-Managementmarktes (Software-Systeme, -komponenten und Diennstleistungen). Die Benutzeroberfläche ist dreisprachig (dt., engl., franz.). Basis der Produktinformationen ist ein standardisierter Fragebogen, der als Kriterienkatalog für die Suche nach geeigneten Produkten verwendet wird. Daneben ist auch die Volltextsuche möglich. Aufgrund der gefundenen Produkte / Dienstleistungen und des nach Wünschen des Anwenders eingeschränkten Fragenkatalogs können kompakte, übersichtliche Reports ausgedruckt werden. Die Daten können für weitere Auswertungen in Tabellenkalkulationsprogrammen bereitgestellt werden
  20. Frank, C.: Entwicklung und Umsetzung eines Archivkonzeptes für ein integriertes Akten- und Medienarchiv für den Landesverband Hamburg e.V. des Deutschen Roten Kreuzes (2004) 0.01
    0.005869055 = product of:
      0.03521433 = sum of:
        0.03521433 = weight(_text_:des in 2999) [ClassicSimilarity], result of:
          0.03521433 = score(doc=2999,freq=6.0), product of:
            0.08306012 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.029993102 = queryNorm
            0.42396194 = fieldWeight in 2999, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=2999)
      0.16666667 = coord(1/6)
    
    Abstract
    Ein Konzept wird entwickelt für ein EDV-unterstützte Erfassung unterschiedlicher Medientypen durch ein Datenbank-Management-System [DBMS]: Nach Anlass, Zielsetzung und Vorgehensweise werden Zustand des Archivs und Ziel-Konzept beschrieben, es folgen Auswahl und Einrichtung des DBMS, Nachweise zur Erfüllung der Anforderungen und Maßnahmen zur Archivorganisation.

Years

Languages

  • d 63
  • e 38
  • f 4
  • sp 2
  • More… Less…

Types

  • a 80
  • x 11
  • m 9
  • el 5
  • s 4
  • r 2
  • More… Less…