Search (14 results, page 1 of 1)

  • × language_ss:"d"
  • × theme_ss:"Dokumentenmanagement"
  1. Modelle und Konzepte der Beitragsdokumentation und Filmarchivierung im Lokalfernsehsender Hamburg I : Endbericht (1996) 0.02
    0.015828783 = product of:
      0.047486346 = sum of:
        0.047486346 = product of:
          0.09497269 = sum of:
            0.09497269 = weight(_text_:22 in 7383) [ClassicSimilarity], result of:
              0.09497269 = score(doc=7383,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.61904186 = fieldWeight in 7383, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.125 = fieldNorm(doc=7383)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 2.1997 19:46:30
  2. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.01
    0.011865757 = product of:
      0.035597272 = sum of:
        0.035597272 = sum of:
          0.0059183068 = weight(_text_:of in 3220) [ClassicSimilarity], result of:
            0.0059183068 = score(doc=3220,freq=2.0), product of:
              0.06850986 = queryWeight, product of:
                1.5637573 = idf(docFreq=25162, maxDocs=44218)
                0.043811057 = queryNorm
              0.086386204 = fieldWeight in 3220, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                1.5637573 = idf(docFreq=25162, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3220)
          0.029678967 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
            0.029678967 = score(doc=3220,freq=2.0), product of:
              0.15341885 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043811057 = queryNorm
              0.19345059 = fieldWeight in 3220, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0390625 = fieldNorm(doc=3220)
      0.33333334 = coord(1/3)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
  3. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.01
    0.0101463245 = product of:
      0.030438973 = sum of:
        0.030438973 = sum of:
          0.0066958 = weight(_text_:of in 1507) [ClassicSimilarity], result of:
            0.0066958 = score(doc=1507,freq=4.0), product of:
              0.06850986 = queryWeight, product of:
                1.5637573 = idf(docFreq=25162, maxDocs=44218)
                0.043811057 = queryNorm
              0.09773483 = fieldWeight in 1507, product of:
                2.0 = tf(freq=4.0), with freq of:
                  4.0 = termFreq=4.0
                1.5637573 = idf(docFreq=25162, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
          0.023743173 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
            0.023743173 = score(doc=1507,freq=2.0), product of:
              0.15341885 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.043811057 = queryNorm
              0.15476047 = fieldWeight in 1507, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
      0.33333334 = coord(1/3)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  4. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.01
    0.0069250925 = product of:
      0.020775277 = sum of:
        0.020775277 = product of:
          0.041550554 = sum of:
            0.041550554 = weight(_text_:22 in 1788) [ClassicSimilarity], result of:
              0.041550554 = score(doc=1788,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.2708308 = fieldWeight in 1788, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=1788)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Source
    Facts: Testmagazin für die Büro- & Kommunikationswelt. 1995, H.5, S.22-34
  5. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.00
    0.0049464945 = product of:
      0.014839483 = sum of:
        0.014839483 = product of:
          0.029678967 = sum of:
            0.029678967 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.029678967 = score(doc=1938,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 6.2008 17:34:12
  6. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.00
    0.0039571957 = product of:
      0.011871587 = sum of:
        0.011871587 = product of:
          0.023743173 = sum of:
            0.023743173 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.023743173 = score(doc=5868,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    16. 5.2001 12:22:23
  7. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.00
    0.0039571957 = product of:
      0.011871587 = sum of:
        0.011871587 = product of:
          0.023743173 = sum of:
            0.023743173 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.023743173 = score(doc=1512,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2003 12:09:10
  8. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.00
    0.0039571957 = product of:
      0.011871587 = sum of:
        0.011871587 = product of:
          0.023743173 = sum of:
            0.023743173 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.023743173 = score(doc=1513,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    28. 4.2003 13:35:22
  9. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.00
    0.0039571957 = product of:
      0.011871587 = sum of:
        0.011871587 = product of:
          0.023743173 = sum of:
            0.023743173 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.023743173 = score(doc=1515,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    22. 4.2003 12:05:56
  10. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.00
    0.0029678966 = product of:
      0.00890369 = sum of:
        0.00890369 = product of:
          0.01780738 = sum of:
            0.01780738 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.01780738 = score(doc=1833,freq=2.0), product of:
                0.15341885 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.043811057 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Date
    11. 5.2008 19:49:22
  11. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 2192) [ClassicSimilarity], result of:
              0.00828563 = score(doc=2192,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 2192, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2192)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  12. Spree, U.: Wissensorganisation und Records Management : Was ist der State of the Art? Literaturübersicht (2009) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 3132) [ClassicSimilarity], result of:
              0.00828563 = score(doc=3132,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 3132, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3132)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
  13. Kampffmeyer, U.: MoReq und MoReq2 (2009) 0.00
    0.0013809383 = product of:
      0.004142815 = sum of:
        0.004142815 = product of:
          0.00828563 = sum of:
            0.00828563 = weight(_text_:of in 3133) [ClassicSimilarity], result of:
              0.00828563 = score(doc=3133,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.120940685 = fieldWeight in 3133, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=3133)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Abkürzung MoReq steht für Model Requirements for the Management of Electronic Records. MoReq ist der europäische Standard für das Records Management. Herausgegeben wurde der von der Europäischen Kommission beauftragte und geförderte Standard vom DLM Forum. Seit Februar 2008 ist die Version MoReq2 gültig. MoReq2 umfasst nicht nur die Anforderungen an das Records Management sondern beinhaltet auch ein XML-Schema, einen Katalog mit Testszenarien und Testdaten sowie ein Zertifizierungsverfahren für Records Management Produkte. MoReq2 deckt den gesamten Lebenszyklus von Records von ihrer Entstehung, Nutzung und Verwaltung bis zur Archivierung und Löschung ab. Verschiedene europäische Staaten haben MoReq2 bereits adaptiert und die ersten Records Management Produkte befinden sich in der Zertifizierung.
  14. Petit, A.L.B.: Ordnungssysteme im Records Management (2014) 0.00
    7.8910764E-4 = product of:
      0.0023673228 = sum of:
        0.0023673228 = product of:
          0.0047346456 = sum of:
            0.0047346456 = weight(_text_:of in 2305) [ClassicSimilarity], result of:
              0.0047346456 = score(doc=2305,freq=2.0), product of:
                0.06850986 = queryWeight, product of:
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.043811057 = queryNorm
                0.06910896 = fieldWeight in 2305, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  1.5637573 = idf(docFreq=25162, maxDocs=44218)
                  0.03125 = fieldNorm(doc=2305)
          0.5 = coord(1/2)
      0.33333334 = coord(1/3)
    
    Content
    Masterarbeit zur Erlangung des akademischen Grades Master of Arts im Studiengang Informationswissenschaften. Vgl. auch: https://opus4.kobv.de/opus4-fhpotsdam/frontdoor/deliver/index/docId/903/file/Ordnungssysteme_im_Records_Management_Anne_Petit.pdf.