Search (235 results, page 1 of 12)

  • × theme_ss:"Dokumentenmanagement"
  1. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.04
    0.044628095 = product of:
      0.06694214 = sum of:
        0.0041706804 = weight(_text_:e in 1513) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=1513,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 1513, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.06277146 = sum of:
          0.038016643 = weight(_text_:von in 1513) [ClassicSimilarity], result of:
            0.038016643 = score(doc=1513,freq=14.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.3119547 = fieldWeight in 1513, product of:
                3.7416575 = tf(freq=14.0), with freq of:
                  14.0 = termFreq=14.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1513)
          0.02475482 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
            0.02475482 = score(doc=1513,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.15476047 = fieldWeight in 1513, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1513)
      0.6666667 = coord(2/3)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  2. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.04
    0.040703617 = product of:
      0.06105542 = sum of:
        0.0041706804 = weight(_text_:e in 5868) [ClassicSimilarity], result of:
          0.0041706804 = score(doc=5868,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.063523374 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.056884743 = sum of:
          0.032129925 = weight(_text_:von in 5868) [ClassicSimilarity], result of:
            0.032129925 = score(doc=5868,freq=10.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.26364982 = fieldWeight in 5868, product of:
                3.1622777 = tf(freq=10.0), with freq of:
                  10.0 = termFreq=10.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
          0.02475482 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
            0.02475482 = score(doc=5868,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.15476047 = fieldWeight in 5868, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
  3. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.04
    0.040444873 = product of:
      0.060667306 = sum of:
        0.054411285 = product of:
          0.21764514 = sum of:
            0.21764514 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.21764514 = score(doc=2918,freq=2.0), product of:
                0.3872565 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.045677755 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.25 = coord(1/4)
        0.00625602 = weight(_text_:e in 2918) [ClassicSimilarity], result of:
          0.00625602 = score(doc=2918,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.6666667 = coord(2/3)
    
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
    Language
    e
  4. Cox, R.J.: Access in the digital information age and the archival mission : the United States (1998) 0.04
    0.038612213 = product of:
      0.057918318 = sum of:
        0.0145973805 = weight(_text_:e in 3177) [ClassicSimilarity], result of:
          0.0145973805 = score(doc=3177,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.2223318 = fieldWeight in 3177, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.109375 = fieldNorm(doc=3177)
        0.043320935 = product of:
          0.08664187 = sum of:
            0.08664187 = weight(_text_:22 in 3177) [ClassicSimilarity], result of:
              0.08664187 = score(doc=3177,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.5416616 = fieldWeight in 3177, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.109375 = fieldNorm(doc=3177)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    2. 3.1999 9:22:24
    Language
    e
  5. Electronic recordkeeping issues and perspectives (1994) 0.03
    0.03309618 = product of:
      0.04964427 = sum of:
        0.01251204 = weight(_text_:e in 1001) [ClassicSimilarity], result of:
          0.01251204 = score(doc=1001,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.19057012 = fieldWeight in 1001, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.09375 = fieldNorm(doc=1001)
        0.03713223 = product of:
          0.07426446 = sum of:
            0.07426446 = weight(_text_:22 in 1001) [ClassicSimilarity], result of:
              0.07426446 = score(doc=1001,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.46428138 = fieldWeight in 1001, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1001)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Language
    e
    Source
    Archives and manuscripts. 22(1994) no.1, S.14-135
  6. Parer, D.; Parrott, K.: Management practices in the electronic records environment (1994) 0.03
    0.027580153 = product of:
      0.041370228 = sum of:
        0.010426701 = weight(_text_:e in 1000) [ClassicSimilarity], result of:
          0.010426701 = score(doc=1000,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 1000, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=1000)
        0.030943526 = product of:
          0.061887052 = sum of:
            0.061887052 = weight(_text_:22 in 1000) [ClassicSimilarity], result of:
              0.061887052 = score(doc=1000,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.38690117 = fieldWeight in 1000, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=1000)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Language
    e
    Source
    Archives and manuscripts. 22(1994) no.1, S.106-122
  7. Rosman, G.; Meer, K.v.d.; Sol, H.G.: ¬The design of document information systems (1996) 0.03
    0.027580153 = product of:
      0.041370228 = sum of:
        0.010426701 = weight(_text_:e in 7750) [ClassicSimilarity], result of:
          0.010426701 = score(doc=7750,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.15880844 = fieldWeight in 7750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.078125 = fieldNorm(doc=7750)
        0.030943526 = product of:
          0.061887052 = sum of:
            0.061887052 = weight(_text_:22 in 7750) [ClassicSimilarity], result of:
              0.061887052 = score(doc=7750,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.38690117 = fieldWeight in 7750, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.078125 = fieldNorm(doc=7750)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Language
    e
    Source
    Journal of information science. 22(1996) no.4, S.287-297
  8. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.03
    0.025520924 = product of:
      0.07656277 = sum of:
        0.07656277 = sum of:
          0.05180795 = weight(_text_:von in 1507) [ClassicSimilarity], result of:
            0.05180795 = score(doc=1507,freq=26.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.4251226 = fieldWeight in 1507, product of:
                5.0990195 = tf(freq=26.0), with freq of:
                  26.0 = termFreq=26.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
          0.02475482 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
            0.02475482 = score(doc=1507,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.15476047 = fieldWeight in 1507, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1507)
      0.33333334 = coord(1/3)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  9. Barbat, P.; Neste, E. van den; Drouhet, G.: Records management et archivistique française (1998) 0.03
    0.02528748 = product of:
      0.03793122 = sum of:
        0.0072986903 = weight(_text_:e in 2988) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=2988,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 2988, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2988)
        0.030632528 = product of:
          0.061265055 = sum of:
            0.061265055 = weight(_text_:22 in 2988) [ClassicSimilarity], result of:
              0.061265055 = score(doc=2988,freq=4.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.38301262 = fieldWeight in 2988, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2988)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    1. 8.1996 22:01:00
    21. 2.1999 15:22:35
  10. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.02
    0.022822194 = product of:
      0.06846658 = sum of:
        0.06846658 = sum of:
          0.025145644 = weight(_text_:von in 1788) [ClassicSimilarity], result of:
            0.025145644 = score(doc=1788,freq=2.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.20633863 = fieldWeight in 1788, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
          0.043320935 = weight(_text_:22 in 1788) [ClassicSimilarity], result of:
            0.043320935 = score(doc=1788,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.2708308 = fieldWeight in 1788, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.0546875 = fieldNorm(doc=1788)
      0.33333334 = coord(1/3)
    
    Abstract
    Zuerst erkannt haben es Versicherungen, Landesbausparkassen, Verlage wie Gruner&Jahr sowie das europäische Patentamt. Bevor das eigene Unternehmen unter der Flut von Informationen zu ersticken droht, müssen die riesigen Papierberge abgetragen und die Verwaltung entschlackt werden. Die Zauberformel dafür: Dokumenten-Management-Systeme (DMS). Neue elektronische Speicher- und Archivierungssysteme bieten dem Unternehmer viele Vorteile: Sie sparen Kosten, denken den Verwaltungsaufwand und steigern dadurch die Leistung der Firma. Inzwischen ist DMS nicht nur für die Großen ein Thema: Freiberufler, Rechtsanwälte, Wirtschaftsprüfer, Steuerberater und Arztpraxen suchen ebenfalls einen Ausweg aus dem Papierchaos. Denn bereits in 2 Jahren, so die düstere Aussage amerikanischer Forscher, werden Unternehmen mit papiergebundenen Verwaltungen ums geschäftliche Überleben kämpfen. In Westeuropa steht DMS dagaben noch in den Anfängen: bis 1998 - so die Experten - werden aber die Nachfrage nach DMS-Lösungen auf rund 8 Milliarden steigen
    Source
    Facts: Testmagazin für die Büro- & Kommunikationswelt. 1995, H.5, S.22-34
  11. Heijst, A.L.M. v.: Records management : the art of making choices (1995) 0.02
    0.02206412 = product of:
      0.03309618 = sum of:
        0.008341361 = weight(_text_:e in 3355) [ClassicSimilarity], result of:
          0.008341361 = score(doc=3355,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 3355, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=3355)
        0.02475482 = product of:
          0.04950964 = sum of:
            0.04950964 = weight(_text_:22 in 3355) [ClassicSimilarity], result of:
              0.04950964 = score(doc=3355,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.30952093 = fieldWeight in 3355, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3355)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 2.1996 9:30:18
    Language
    e
  12. Boyle, J.: ¬A blueprint for managing documents (1997) 0.02
    0.02206412 = product of:
      0.03309618 = sum of:
        0.008341361 = weight(_text_:e in 814) [ClassicSimilarity], result of:
          0.008341361 = score(doc=814,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=814)
        0.02475482 = product of:
          0.04950964 = sum of:
            0.04950964 = weight(_text_:22 in 814) [ClassicSimilarity], result of:
              0.04950964 = score(doc=814,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.30952093 = fieldWeight in 814, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=814)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Language
    e
    Source
    Byte. 22(1997) no.5, S.75-76,78,80
  13. McLeod, J.; Hare, C.H.; Webster, B.: Records management today (1998) 0.02
    0.02206412 = product of:
      0.03309618 = sum of:
        0.008341361 = weight(_text_:e in 3627) [ClassicSimilarity], result of:
          0.008341361 = score(doc=3627,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.12704675 = fieldWeight in 3627, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0625 = fieldNorm(doc=3627)
        0.02475482 = product of:
          0.04950964 = sum of:
            0.04950964 = weight(_text_:22 in 3627) [ClassicSimilarity], result of:
              0.04950964 = score(doc=3627,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.30952093 = fieldWeight in 3627, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3627)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    15. 5.1999 20:22:49
    Language
    e
  14. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.02
    0.019983796 = product of:
      0.059951387 = sum of:
        0.059951387 = sum of:
          0.03519657 = weight(_text_:von in 1515) [ClassicSimilarity], result of:
            0.03519657 = score(doc=1515,freq=12.0), product of:
              0.121865906 = queryWeight, product of:
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.045677755 = queryNorm
              0.28881392 = fieldWeight in 1515, product of:
                3.4641016 = tf(freq=12.0), with freq of:
                  12.0 = termFreq=12.0
                2.6679487 = idf(docFreq=8340, maxDocs=44218)
                0.03125 = fieldNorm(doc=1515)
          0.02475482 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
            0.02475482 = score(doc=1515,freq=2.0), product of:
              0.15995571 = queryWeight, product of:
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.045677755 = queryNorm
              0.15476047 = fieldWeight in 1515, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.5018296 = idf(docFreq=3622, maxDocs=44218)
                0.03125 = fieldNorm(doc=1515)
      0.33333334 = coord(1/3)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  15. Automatische Klassifikation und Extraktion in Documentum (2005) 0.02
    0.019315835 = product of:
      0.028973753 = sum of:
        0.0052133505 = weight(_text_:e in 3974) [ClassicSimilarity], result of:
          0.0052133505 = score(doc=3974,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.07940422 = fieldWeight in 3974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3974)
        0.023760403 = product of:
          0.047520805 = sum of:
            0.047520805 = weight(_text_:von in 3974) [ClassicSimilarity], result of:
              0.047520805 = score(doc=3974,freq=14.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.3899434 = fieldWeight in 3974, product of:
                  3.7416575 = tf(freq=14.0), with freq of:
                    14.0 = termFreq=14.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  16. Hare, C.E.; McLeaod, J.; King, L.A.: Continuing professional development for the information discipline of records management : pt.1: context and initial indications of current activities (1996) 0.02
    0.019306106 = product of:
      0.028959159 = sum of:
        0.0072986903 = weight(_text_:e in 5049) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=5049,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 5049, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5049)
        0.021660468 = product of:
          0.043320935 = sum of:
            0.043320935 = weight(_text_:22 in 5049) [ClassicSimilarity], result of:
              0.043320935 = score(doc=5049,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2708308 = fieldWeight in 5049, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=5049)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Language
    e
    Source
    Librarian career development. 4(1996) no.2, S.22-27
  17. Huang, T.; Mehrotra, S.; Ramchandran, K.: Multimedia Access and Retrieval System (MARS) project (1997) 0.02
    0.019306106 = product of:
      0.028959159 = sum of:
        0.0072986903 = weight(_text_:e in 758) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=758,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 758, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=758)
        0.021660468 = product of:
          0.043320935 = sum of:
            0.043320935 = weight(_text_:22 in 758) [ClassicSimilarity], result of:
              0.043320935 = score(doc=758,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2708308 = fieldWeight in 758, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=758)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 9.1997 19:16:05
    Language
    e
  18. Jain, R.: Visual information retrieval in digital libraries (1997) 0.02
    0.019306106 = product of:
      0.028959159 = sum of:
        0.0072986903 = weight(_text_:e in 760) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=760,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 760, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=760)
        0.021660468 = product of:
          0.043320935 = sum of:
            0.043320935 = weight(_text_:22 in 760) [ClassicSimilarity], result of:
              0.043320935 = score(doc=760,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2708308 = fieldWeight in 760, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=760)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    22. 9.1997 19:16:05
    Language
    e
  19. Taylor, P.: Perception and change in records management : rethinking the fundamentals (1997) 0.02
    0.019306106 = product of:
      0.028959159 = sum of:
        0.0072986903 = weight(_text_:e in 2787) [ClassicSimilarity], result of:
          0.0072986903 = score(doc=2787,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.1111659 = fieldWeight in 2787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2787)
        0.021660468 = product of:
          0.043320935 = sum of:
            0.043320935 = weight(_text_:22 in 2787) [ClassicSimilarity], result of:
              0.043320935 = score(doc=2787,freq=2.0), product of:
                0.15995571 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045677755 = queryNorm
                0.2708308 = fieldWeight in 2787, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=2787)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Date
    24. 1.1999 12:22:46
    Language
    e
  20. Baier Benninger, P.: Model requirements for the management of electronic records (MoReq2) : Anleitung zur Umsetzung (2011) 0.02
    0.018539619 = product of:
      0.027809428 = sum of:
        0.00625602 = weight(_text_:e in 4343) [ClassicSimilarity], result of:
          0.00625602 = score(doc=4343,freq=2.0), product of:
            0.065655835 = queryWeight, product of:
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.045677755 = queryNorm
            0.09528506 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.43737 = idf(docFreq=28552, maxDocs=44218)
              0.046875 = fieldNorm(doc=4343)
        0.021553408 = product of:
          0.043106817 = sum of:
            0.043106817 = weight(_text_:von in 4343) [ClassicSimilarity], result of:
              0.043106817 = score(doc=4343,freq=8.0), product of:
                0.121865906 = queryWeight, product of:
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.045677755 = queryNorm
                0.35372335 = fieldWeight in 4343, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  2.6679487 = idf(docFreq=8340, maxDocs=44218)
                  0.046875 = fieldNorm(doc=4343)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Viele auch kleinere Unternehmen, Verwaltungen und Organisationen sind angesichts eines wachsenden Berges von digitalen Informationen mit dem Ordnen und Strukturieren ihrer Ablagen beschäftigt. In den meisten Organisationen besteht ein Konzept der Dokumentenlenkung. Records Management verfolgt vor allem in zwei Punkten einen weiterführenden Ansatz. Zum einen stellt es über den Geschäftsalltag hinaus den Kontext und den Entstehungszusammenhang ins Zentrum und zum anderen gibt es Regeln vor, wie mit ungenutzten oder inaktiven Dokumenten zu verfahren ist. Mit den «Model Requirements for the Management of Electronic Records» - MoReq - wurde von der europäischen Kommission ein Standard geschaffen, der alle Kernbereiche des Records Managements und damit den gesamten Entstehungs-, Nutzungs-, Archivierungsund Aussonderungsbereich von Dokumenten abdeckt. In der «Anleitung zur Umsetzung» wird die umfangreiche Anforderungsliste von MoReq2 (August 2008) zusammengefasst und durch erklärende Abschnitte ergänzt, mit dem Ziel, als griffiges Instrument bei der Einführung eines Record Management Systems zu dienen.
    Language
    e

Years

Languages

  • e 162
  • d 70
  • f 2
  • sp 1
  • More… Less…

Types

  • a 191
  • m 25
  • x 9
  • s 6
  • el 5
  • r 2
  • b 1
  • n 1
  • More… Less…