Search (95 results, page 1 of 5)

  • × theme_ss:"Dokumentenmanagement"
  1. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.08
    0.07693074 = product of:
      0.115396105 = sum of:
        0.03977734 = weight(_text_:g in 1507) [ClassicSimilarity], result of:
          0.03977734 = score(doc=1507,freq=4.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.23474671 = fieldWeight in 1507, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.075618766 = sum of:
          0.05116917 = weight(_text_:von in 1507) [ClassicSimilarity], result of:
            0.05116917 = score(doc=1507,freq=26.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.4251226 = fieldWeight in 1507, product of:
                5.0990195 = tf(freq=26.0), with freq of:
                  26.0 = termFreq=26.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
          0.0244496 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
            0.0244496 = score(doc=1507,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.15476047 = fieldWeight in 1507, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  2. Linczak, G.; Fournier, C. von; Südkamp, N.: Von der Insellösung zum Klinikinformationssystem : Kooperation, Kommunikation, Standards im Virchow-Klinikum (1996) 0.08
    0.07632385 = product of:
      0.11448577 = sum of:
        0.08438047 = weight(_text_:g in 5267) [ClassicSimilarity], result of:
          0.08438047 = score(doc=5267,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 5267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=5267)
        0.030105298 = product of:
          0.060210597 = sum of:
            0.060210597 = weight(_text_:von in 5267) [ClassicSimilarity], result of:
              0.060210597 = score(doc=5267,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.5002404 = fieldWeight in 5267, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.09375 = fieldNorm(doc=5267)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
  3. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.07
    0.07212053 = product of:
      0.1081808 = sum of:
        0.08438047 = weight(_text_:g in 6386) [ClassicSimilarity], result of:
          0.08438047 = score(doc=6386,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 6386, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.023800327 = product of:
          0.047600653 = sum of:
            0.047600653 = weight(_text_:von in 6386) [ClassicSimilarity], result of:
              0.047600653 = score(doc=6386,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.39547473 = fieldWeight in 6386, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6386)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  4. Rosman, G.; Meer, K.v.d.; Sol, H.G.: ¬The design of document information systems (1996) 0.07
    0.06725271 = product of:
      0.100879066 = sum of:
        0.07031707 = weight(_text_:g in 7750) [ClassicSimilarity], result of:
          0.07031707 = score(doc=7750,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 7750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=7750)
        0.030562 = product of:
          0.061124 = sum of:
            0.061124 = weight(_text_:22 in 7750) [ClassicSimilarity], result of:
              0.061124 = score(doc=7750,freq=2.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.38690117 = fieldWeight in 7750, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7750)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Source
    Journal of information science. 22(1996) no.4, S.287-297
  5. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.06
    0.060100447 = product of:
      0.09015067 = sum of:
        0.07031707 = weight(_text_:g in 5863) [ClassicSimilarity], result of:
          0.07031707 = score(doc=5863,freq=8.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 5863, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.019833606 = product of:
          0.03966721 = sum of:
            0.03966721 = weight(_text_:von in 5863) [ClassicSimilarity], result of:
              0.03966721 = score(doc=5863,freq=10.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.32956228 = fieldWeight in 5863, product of:
                  3.1622777 = tf(freq=10.0), with freq of:
                    10.0 = termFreq=10.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  6. Specht, G.: Architekturen von Multimedia-Datenbanksystemen zur Speicherung von Bildern und Videos (1998) 0.06
    0.056424797 = product of:
      0.084637195 = sum of:
        0.05625365 = weight(_text_:g in 17) [ClassicSimilarity], result of:
          0.05625365 = score(doc=17,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 17, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=17)
        0.028383546 = product of:
          0.05676709 = sum of:
            0.05676709 = weight(_text_:von in 17) [ClassicSimilarity], result of:
              0.05676709 = score(doc=17,freq=8.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.47163114 = fieldWeight in 17, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=17)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Dieses Papier stellt, ausgehend von der Architektur konventioneller Datenbanksysteme und den demgegenüber neuen Anforderungen an Multimedia-Datenbanksystemen, vier verschiedene Basisarchitekturen für Multimedia-Datenbanksysteme vor. Im letzten Abschnitt wird als ein Beispiel das System MultiMAP vorgestellt, ein multimediales Datenbanksystem, das an der TU München entwickelt wurde
    Source
    Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven: Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen. Hrsg.: N. Luth
  7. Barbat, P.; Neste, E. van den; Drouhet, G.: Records management et archivistique française (1998) 0.05
    0.05298452 = product of:
      0.07947678 = sum of:
        0.049221944 = weight(_text_:g in 2988) [ClassicSimilarity], result of:
          0.049221944 = score(doc=2988,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 2988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2988)
        0.030254837 = product of:
          0.060509674 = sum of:
            0.060509674 = weight(_text_:22 in 2988) [ClassicSimilarity], result of:
              0.060509674 = score(doc=2988,freq=4.0), product of:
                0.1579835 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04511456 = queryNorm
                0.38301262 = fieldWeight in 2988, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2988)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    1. 8.1996 22:01:00
    21. 2.1999 15:22:35
  8. Langosch, G.: ¬Das Konzept entscheidet über den Erfolg : Elektronische Archivierungssysteme bei Banken und Versicherungen (1995) 0.05
    0.05088257 = product of:
      0.07632385 = sum of:
        0.05625365 = weight(_text_:g in 1483) [ClassicSimilarity], result of:
          0.05625365 = score(doc=1483,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 1483, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=1483)
        0.020070199 = product of:
          0.040140398 = sum of:
            0.040140398 = weight(_text_:von in 1483) [ClassicSimilarity], result of:
              0.040140398 = score(doc=1483,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.3334936 = fieldWeight in 1483, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0625 = fieldNorm(doc=1483)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    'Imaging', der Einsatz elektronischer Archiverungssysteme, spielt im Rahmen von Business Reengineering-Projekten in Versicherungen und Kreditinstituten eine Schlüsselrolle. Nicht umsonst gilt Imaging innerhalb der Finanzwirtschaft und ihrer Informationstechnologie als sog. 'Enabler', mit dessen Hilfe durchgreifende Vereinfachungen bei Arbeitsabläfen ermöglicht werden können. Vor allem unbefriedigende und unqualifizierte Hifsarbeiten innerhalb der Prozesse werden mit Hilfe von Imaging-Lösungen reduziert
  9. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.04
    0.04452225 = product of:
      0.06678337 = sum of:
        0.049221944 = weight(_text_:g in 2192) [ClassicSimilarity], result of:
          0.049221944 = score(doc=2192,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.29048425 = fieldWeight in 2192, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
        0.017561423 = product of:
          0.035122845 = sum of:
            0.035122845 = weight(_text_:von in 2192) [ClassicSimilarity], result of:
              0.035122845 = score(doc=2192,freq=4.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.29180688 = fieldWeight in 2192, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2192)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  10. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.03
    0.03126719 = product of:
      0.04690078 = sum of:
        0.028126825 = weight(_text_:g in 1400) [ClassicSimilarity], result of:
          0.028126825 = score(doc=1400,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.165991 = fieldWeight in 1400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.018773952 = product of:
          0.037547905 = sum of:
            0.037547905 = weight(_text_:von in 1400) [ClassicSimilarity], result of:
              0.037547905 = score(doc=1400,freq=14.0), product of:
                0.120363325 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.04511456 = queryNorm
                0.3119547 = fieldWeight in 1400, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1400)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
  11. Schmitz-Esser, W.: ¬Die Pressedatenbank für Text und Bild des Verlagshauses Gruner + Jahr (1977) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 4756) [ClassicSimilarity], result of:
          0.08438047 = score(doc=4756,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 4756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
      0.33333334 = coord(1/3)
    
    Footnote
    In diesem Aufsatz wird auch der Aufbau des G+J Index ausführlich erläutert
  12. Rey-Mermet, G.: Informationsmanagement - Chancen ergreifen : Bericht über die 10. Internationale Fachkonferenz vom 14.-16. April 1999 in Basel (1999) 0.03
    0.028126825 = product of:
      0.08438047 = sum of:
        0.08438047 = weight(_text_:g in 3578) [ClassicSimilarity], result of:
          0.08438047 = score(doc=3578,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.49797297 = fieldWeight in 3578, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.09375 = fieldNorm(doc=3578)
      0.33333334 = coord(1/3)
    
  13. Wettengel, M.; Brübach, N.; Herzog, G.: DIN-Arbeitsgremium "Archiv- und Schriftgutverwaltung" an der Erarbeitung der ISO 15489 beteiligt : Abstimmung über Norm-Entwurf läuft (2000) 0.02
    0.023439024 = product of:
      0.07031707 = sum of:
        0.07031707 = weight(_text_:g in 5472) [ClassicSimilarity], result of:
          0.07031707 = score(doc=5472,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.4149775 = fieldWeight in 5472, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.078125 = fieldNorm(doc=5472)
      0.33333334 = coord(1/3)
    
  14. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.02
    0.0225408 = product of:
      0.0676224 = sum of:
        0.0676224 = sum of:
          0.024835603 = weight(_text_:von in 1788) [ClassicSimilarity], result of:
            0.024835603 = score(doc=1788,freq=2.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.20633863 = fieldWeight in 1788, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
          0.0427868 = weight(_text_:22 in 1788) [ClassicSimilarity], result of:
            0.0427868 = score(doc=1788,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.2708308 = fieldWeight in 1788, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
      0.33333334 = coord(1/3)
    
    Abstract
    Zuerst erkannt haben es Versicherungen, Landesbausparkassen, Verlage wie Gruner&Jahr sowie das europäische Patentamt. Bevor das eigene Unternehmen unter der Flut von Informationen zu ersticken droht, müssen die riesigen Papierberge abgetragen und die Verwaltung entschlackt werden. Die Zauberformel dafür: Dokumenten-Management-Systeme (DMS). Neue elektronische Speicher- und Archivierungssysteme bieten dem Unternehmer viele Vorteile: Sie sparen Kosten, denken den Verwaltungsaufwand und steigern dadurch die Leistung der Firma. Inzwischen ist DMS nicht nur für die Großen ein Thema: Freiberufler, Rechtsanwälte, Wirtschaftsprüfer, Steuerberater und Arztpraxen suchen ebenfalls einen Ausweg aus dem Papierchaos. Denn bereits in 2 Jahren, so die düstere Aussage amerikanischer Forscher, werden Unternehmen mit papiergebundenen Verwaltungen ums geschäftliche Überleben kämpfen. In Westeuropa steht DMS dagaben noch in den Anfängen: bis 1998 - so die Experten - werden aber die Nachfrage nach DMS-Lösungen auf rund 8 Milliarden steigen
    Source
    Facts: Testmagazin für die Büro- & Kommunikationswelt. 1995, H.5, S.22-34
  15. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.02
    0.020665836 = product of:
      0.061997503 = sum of:
        0.061997503 = sum of:
          0.037547905 = weight(_text_:von in 1513) [ClassicSimilarity], result of:
            0.037547905 = score(doc=1513,freq=14.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.3119547 = fieldWeight in 1513, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1513)
          0.0244496 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
            0.0244496 = score(doc=1513,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.15476047 = fieldWeight in 1513, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1513)
      0.33333334 = coord(1/3)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  16. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.0197374 = product of:
      0.0592122 = sum of:
        0.0592122 = sum of:
          0.034762602 = weight(_text_:von in 1515) [ClassicSimilarity], result of:
            0.034762602 = score(doc=1515,freq=12.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.28881392 = fieldWeight in 1515, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1515)
          0.0244496 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
            0.0244496 = score(doc=1515,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.15476047 = fieldWeight in 1515, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1515)
      0.33333334 = coord(1/3)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  17. O'Shea, G.; Roberts, D.: Living in a digital world : recognising the electronic and post-custodial realities (1996) 0.02
    0.018751217 = product of:
      0.05625365 = sum of:
        0.05625365 = weight(_text_:g in 7165) [ClassicSimilarity], result of:
          0.05625365 = score(doc=7165,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 7165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=7165)
      0.33333334 = coord(1/3)
    
  18. Beastall, G.: Records management meets knowledge gathering (1998) 0.02
    0.018751217 = product of:
      0.05625365 = sum of:
        0.05625365 = weight(_text_:g in 2754) [ClassicSimilarity], result of:
          0.05625365 = score(doc=2754,freq=2.0), product of:
            0.1694479 = queryWeight, product of:
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.04511456 = queryNorm
            0.331982 = fieldWeight in 2754, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.7559474 = idf(docFreq=2809, maxDocs=44218)
              0.0625 = fieldNorm(doc=2754)
      0.33333334 = coord(1/3)
    
  19. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.02
    0.01872779 = product of:
      0.056183368 = sum of:
        0.056183368 = sum of:
          0.03173377 = weight(_text_:von in 5868) [ClassicSimilarity], result of:
            0.03173377 = score(doc=5868,freq=10.0), product of:
              0.120363325 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.04511456 = queryNorm
              0.26364982 = fieldWeight in 5868, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
          0.0244496 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
            0.0244496 = score(doc=5868,freq=2.0), product of:
              0.1579835 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.04511456 = queryNorm
              0.15476047 = fieldWeight in 5868, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
  20. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.02
    0.01791347 = product of:
      0.05374041 = sum of:
        0.05374041 = product of:
          0.21496163 = sum of:
            0.21496163 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.21496163 = score(doc=2918,freq=2.0), product of:
                0.38248172 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.04511456 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.25 = coord(1/4)
      0.33333334 = coord(1/3)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.

Languages

  • d 73
  • e 19
  • f 2
  • sp 1
  • More… Less…

Types

  • a 73
  • m 9
  • x 9
  • el 4
  • s 3
  • r 1
  • More… Less…