Search (36 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Dokumentenmanagement"
  • × type_ss:"a"
  1. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.03
    0.03468905 = product of:
      0.052033573 = sum of:
        0.035600647 = weight(_text_:des in 3220) [ClassicSimilarity], result of:
          0.035600647 = score(doc=3220,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2649762 = fieldWeight in 3220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.016432926 = product of:
          0.032865852 = sum of:
            0.032865852 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.032865852 = score(doc=3220,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
  2. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.03
    0.033276353 = product of:
      0.049914528 = sum of:
        0.036768187 = weight(_text_:des in 1515) [ClassicSimilarity], result of:
          0.036768187 = score(doc=1515,freq=10.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.27366623 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.01314634 = product of:
          0.02629268 = sum of:
            0.02629268 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.02629268 = score(doc=1515,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  3. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.03
    0.03068854 = product of:
      0.04603281 = sum of:
        0.032886468 = weight(_text_:des in 1513) [ClassicSimilarity], result of:
          0.032886468 = score(doc=1513,freq=8.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.24477452 = fieldWeight in 1513, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.01314634 = product of:
          0.02629268 = sum of:
            0.02629268 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.02629268 = score(doc=1513,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  4. Schmitz-Esser, W.: ¬Die Pressedatenbank für Text und Bild des Verlagshauses Gruner + Jahr (1977) 0.02
    0.023254244 = product of:
      0.06976273 = sum of:
        0.06976273 = weight(_text_:des in 4756) [ClassicSimilarity], result of:
          0.06976273 = score(doc=4756,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.51924515 = fieldWeight in 4756, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=4756)
      0.33333334 = coord(1/3)
    
    Footnote
    In diesem Aufsatz wird auch der Aufbau des G+J Index ausführlich erläutert
  5. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.02
    0.019726384 = product of:
      0.029589575 = sum of:
        0.016443234 = weight(_text_:des in 5868) [ClassicSimilarity], result of:
          0.016443234 = score(doc=5868,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.12238726 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.01314634 = product of:
          0.02629268 = sum of:
            0.02629268 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.02629268 = score(doc=5868,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
  6. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.02
    0.019726384 = product of:
      0.029589575 = sum of:
        0.016443234 = weight(_text_:des in 1507) [ClassicSimilarity], result of:
          0.016443234 = score(doc=1507,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.12238726 = fieldWeight in 1507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.01314634 = product of:
          0.02629268 = sum of:
            0.02629268 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
              0.02629268 = score(doc=1507,freq=2.0), product of:
                0.16989274 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.04851542 = queryNorm
                0.15476047 = fieldWeight in 1507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1507)
          0.5 = coord(1/2)
      0.6666667 = coord(2/3)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  7. Kaestner, J.: Virtuelle Dokumente und Redundanz : Bildspeicherung von Dokumenten in optischen Speichersystemen (1993) 0.02
    0.019183774 = product of:
      0.057551317 = sum of:
        0.057551317 = weight(_text_:des in 6476) [ClassicSimilarity], result of:
          0.057551317 = score(doc=6476,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.4283554 = fieldWeight in 6476, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.109375 = fieldNorm(doc=6476)
      0.33333334 = coord(1/3)
    
    Abstract
    Enthält unter anderem Bericht über das optische Speichersystem des Hessischen Landtages
  8. Büttner, G.: Integration audiovisueller Aufzeichnungen in das Records Management einer Organisation : ein konzeptionelles Metadatenmodell (2017) 0.02
    0.016613636 = product of:
      0.04984091 = sum of:
        0.04984091 = weight(_text_:des in 4202) [ClassicSimilarity], result of:
          0.04984091 = score(doc=4202,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.3709667 = fieldWeight in 4202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4202)
      0.33333334 = coord(1/3)
    
    Abstract
    Dieser Artikel stellt ein konzeptionelles Metadatenmodell vor, das auf Records verschiedener Medientypen anwendbar ist. Organisationen, die im Zuge ihrer Tätigkeit regelmäßig sowohl textbasierte als auch audiovisuelle Records erstellen, haben beide Medien im Sinne des Records Management zu verwalten. Dazu sind Metadaten, einschließlich der des zentralen Ordnungssystems für Records, ein Hauptwerkzeug. Inspiriert durch medienübergreifende, auf gemeinsamen Zugriff ausgerichtete Metadatenmodelle, wird ein neues Modell vorgeschlagen. Es kombiniert die hierarchische Abstraktion der existierenden Modelle mit den Prinzipien des Records Management. Das Modell kann Organisationen dabei helfen, Entscheidungen über Metadaten für ihre Records zu treffen.
  9. Schiffer, A.: Multimediale Bild-Text-Verfilmung am Bild- und Tonarchiv des Steiermärkischen Landesmuseums Joanneum Graz (1993) 0.02
    0.016443234 = product of:
      0.0493297 = sum of:
        0.0493297 = weight(_text_:des in 2837) [ClassicSimilarity], result of:
          0.0493297 = score(doc=2837,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.36716178 = fieldWeight in 2837, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=2837)
      0.33333334 = coord(1/3)
    
  10. Lehner, R.: ¬Der digitalisierte Scherenschnitt : Zeitungsausschnittarchive im Informationszeitalter (2003) 0.02
    0.016443234 = product of:
      0.0493297 = sum of:
        0.0493297 = weight(_text_:des in 6684) [ClassicSimilarity], result of:
          0.0493297 = score(doc=6684,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.36716178 = fieldWeight in 6684, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=6684)
      0.33333334 = coord(1/3)
    
    Abstract
    Eine Darstellung des EU-Projektes LAURIN
  11. Gasterich, F.-J.: ¬Das Intranet des F.A.Z.-Archivs (2003) 0.02
    0.016443234 = product of:
      0.0493297 = sum of:
        0.0493297 = weight(_text_:des in 1334) [ClassicSimilarity], result of:
          0.0493297 = score(doc=1334,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.36716178 = fieldWeight in 1334, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1334)
      0.33333334 = coord(1/3)
    
  12. Nelke, P.: Von der Tape-Library zum Content-Management-System : die Digitalisierung des Videoarchivs bei CNN (2003) 0.02
    0.016443234 = product of:
      0.0493297 = sum of:
        0.0493297 = weight(_text_:des in 1517) [ClassicSimilarity], result of:
          0.0493297 = score(doc=1517,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.36716178 = fieldWeight in 1517, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.09375 = fieldNorm(doc=1517)
      0.33333334 = coord(1/3)
    
  13. Schöhl, W.: ¬Ein umfassendes Datenbanksystem für Print, Radio, Fernsehen und das Internet : Die Online-Anbindung, Adressverwaltung, Bürokommunikation und Medienanalyse (1997) 0.01
    0.01424026 = product of:
      0.04272078 = sum of:
        0.04272078 = weight(_text_:des in 6557) [ClassicSimilarity], result of:
          0.04272078 = score(doc=6557,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.31797147 = fieldWeight in 6557, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6557)
      0.33333334 = coord(1/3)
    
    Abstract
    Es wird die Verknüpfung des Multimedia-Pressesystems mit den wichtigsten Online-Datenbanken von Zeitungen, Zeitschriften, Nachrichtenagenturen und em Internet vorgestellt. Mittels Direkt-Importprogrammen können alle Dokumente aus Online-Datenbanken feldweise in die interne Mediendatenbank heruntergeladen werden und stehen somit zur Medien- und Imageanalyse zur Verfügung. Durch die angebundene Imageverwaltung können die Online-Artikel durch Bilder oder Images der Printversion ergänzt werden. Die integrierte Personen- und Firmendatenbank sowie die Anbindung einer Journalistendatenbank an alle Arten von Mediendokumenten erweist sich als vorteilhaft für die Aufdatierung von Verteilern und die rasche Reaktion auf Medienereignisse. Die Datenbank für Bürokommunikation kann für die Verwaltung von Schriftverkehr auf ähnliche Weise wie die Mediendatenbank benutzt werden, was den Einarbeitungsaufwand minimieren soll. So kann an das Voicetype-Spracherkennungssystem von IBM angekoppelt werden, um so etwa das Abstracting bei Hörfunk- und Fernsehberichten zu vereinfachen. Die Dokumente des gesamten Datenbanksystems können schließlich über Intranet- und Internetanbindung relativ einfach und kostengünstig verteilt werden. Insgesamt soll die konsequente Anwendung solcher Datenbanksysteme zu einer Produktivitätssteigerung von 50-100% führen
    Footnote
    Fortsetzung des Teils 1 in NfD 47(1996) H.6, S.323-333.
  14. Schoop, E.: Strukturierung der betrieblichen Dokumentation als Grundbaustein für ein multimediales Wissensmanagement in der Unternehmung (1998) 0.01
    0.01424026 = product of:
      0.04272078 = sum of:
        0.04272078 = weight(_text_:des in 6615) [ClassicSimilarity], result of:
          0.04272078 = score(doc=6615,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.31797147 = fieldWeight in 6615, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=6615)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Betriebswirtschaftslehre als anwendungsbezogene sozialwissenschaftliche Disziplin stellt entscheidungsorientiertes Führungsverhalten in den Mittelpunkt ihrer Erklärungsmodelle. Zunehmend wird erkannt, daß die zur Qualitätssicherung des Leitungshandelns in der Unternehmung als Entscheidungsgrundlage bereitzustellende Information eine systematische Organisation der zugrundeliegenden Wissensbasis voraussetzt. Das Management der Ressource Wissen wird damit zur zentralen Aufgabe des betrieblichen Informationsmanagements. Im vorliegenden Beitrag wird das Document Engineering als neue Methode des Dokumentenmanagements diskutiert. ausgehend von den Anforderungen der betrieblichen Dokumentationsfunktion wird aufgezeigt, wie eine aufgabenbezogen strukturierte Wissensbasis der Unternehmung aufgebaut und für alternative Formen der Weiterverarbeitung mit Hilfe automatisierter Verfahren bereitgestellt werden kann. Die entstehenden Dokumentenstrukturen und die darauf operierenden multimedialen Anwendungssysteme können auf strategischer Ebene zum entscheidenden Erfolgsfaktor eines wettbewerbsorientierten Wissensmanagements der Unternehmung werden
  15. Mummenthey, I.; Kotte, J.; Brüdegam, J.: Schriftgutverwaltung Records Management und Records Preservation : Selbstverständnis des Staatsarchivs Hamburg in einer modernen Verwaltung (2009) 0.01
    0.01424026 = product of:
      0.04272078 = sum of:
        0.04272078 = weight(_text_:des in 3135) [ClassicSimilarity], result of:
          0.04272078 = score(doc=3135,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.31797147 = fieldWeight in 3135, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
      0.33333334 = coord(1/3)
    
    Abstract
    Was hat ein Staatsarchiv mit Schriftgutverwaltung zu tun? Ist Schriftgutverwaltung nur ein altbackener Begriff für das moderne Records Management? Was ist Records Preservation? Und wo ist der Bezug zu Orwells Roman "1984"? Diese Fragen will der Beitrag beantworten. Im ersten Teil beschreibt Irmgard Mummenthey zunächst die Aufgaben des Staatsarchivs der Freien und Hansestadt Hamburg und erläutert Begrifflichkeiten. Sie geht dann auf Records Management als strategische Aufgabe des Staatsarchivs ein und skizziert die Bedeutung sowohl einer vertrauenswürdigen Überlieferung als auch eines Archivs selbst in einem demokratischen Rechtsstaat. Jenny Kotte stellt dann im zweiten Teil die wichtigsten Standards vor. Diese sind maßgebliche Instrumente, um den Stellenwert von Schriftgutverwaltung bzw. Records Management und damit seine Qualität zu sichern. Julia Brüdegam berichtet im dritten Teil, wie das Staatsarchiv seinen gesetzlichen Auftrag, die hamburgische Verwaltung zu beraten, praktisch umsetzt. Da die drei Autorinnen sich in ihrer täglichen Arbeit auf die öffentliche Verwaltung konzentrieren (müssen), liegt dort auch unweigerlich der Schwerpunkt dieses Beitrags.
  16. Müller-Fehrenbach, M.: Archivsysteme - Anforderungen und Überblick : T.1 (1995) 0.01
    0.013702696 = product of:
      0.041108087 = sum of:
        0.041108087 = weight(_text_:des in 3142) [ClassicSimilarity], result of:
          0.041108087 = score(doc=3142,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.30596817 = fieldWeight in 3142, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.078125 = fieldNorm(doc=3142)
      0.33333334 = coord(1/3)
    
    Abstract
    Ein Thema, das derzeit vielen auf den Nägeln brennt, ist die Gestaltung des betrieblichen Archivwesens. Der nachfolgende Beitrag formuliert zuerst Anforderungen an ein modernes Archivwesen (aus dem Blickwinkel eines Zeitungsverlags) und wirft dann einen Blick auf die aktuelle Angebotssituation - Stand September 1995
  17. Zoller, P.: ¬Die wohldurchdachte Aufbereitung des Informationsangebotes : Teil einer computergestützten Sachbearbeitung (1992) 0.01
    0.013564976 = product of:
      0.040694926 = sum of:
        0.040694926 = weight(_text_:des in 1333) [ClassicSimilarity], result of:
          0.040694926 = score(doc=1333,freq=4.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.302893 = fieldWeight in 1333, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1333)
      0.33333334 = coord(1/3)
    
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  18. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.01
    0.011866882 = product of:
      0.035600647 = sum of:
        0.035600647 = weight(_text_:des in 1718) [ClassicSimilarity], result of:
          0.035600647 = score(doc=1718,freq=6.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.2649762 = fieldWeight in 1718, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.33333334 = coord(1/3)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
  19. Peters, R.W.: Dokumentenmanagement mit Hypertext (1995) 0.01
    0.010962157 = product of:
      0.032886468 = sum of:
        0.032886468 = weight(_text_:des in 1309) [ClassicSimilarity], result of:
          0.032886468 = score(doc=1309,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.24477452 = fieldWeight in 1309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1309)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Umgang mit dem weltweit online verfügbaren Wissen wird in Chaos und Frustration enden, wenn es nicht gelingt, dem Suchenden leistungsfähige Hilfsmittel für das Navigieren in großen Datenbeständen zur Verfügung zu stellen. Der vorliegende Beitrag macht deutlich, daß hierfür die klassischen Retrievalmöglichkeiten um hypertextorientierte Suchmechanismen zu ergänzen sind. Dies wurde in konsequenter Weise in einem Projekt der Bayer AG realisiert. Hier galt es, alle externen und internen Informationen und Softwarehilfsmittel für die Unterstützung der Arbeit des Ingenieurs elektronisch zu verwalten und online verfügbar zu halten
  20. Grudowski, S.; Jünke, M.: Planung der betrieblichen Dokumentation : Praxisbeispiel: EXPO 2000 Hannover GmbH und Arthur D. Little Inc (1998) 0.01
    0.010962157 = product of:
      0.032886468 = sum of:
        0.032886468 = weight(_text_:des in 1604) [ClassicSimilarity], result of:
          0.032886468 = score(doc=1604,freq=2.0), product of:
            0.13435413 = queryWeight, product of:
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.04851542 = queryNorm
            0.24477452 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.7693076 = idf(docFreq=7536, maxDocs=44218)
              0.0625 = fieldNorm(doc=1604)
      0.33333334 = coord(1/3)
    
    Abstract
    Der Aufsatz beschreibt die Planung der Dokumentation des EXPO 2000 Hannover GmbH, dem Organisator der Weltausstellung im Jahr 2000. Bei der Planung wirkte die Unternehmens- und Technologieberatung Arthur D. Little Inc. mit. Der Aufsatz stellt eine bisher in der Literatur einmalige Beschreibung der betrieblichen Dokumentationsplanung in Projektform dar. Es werden die Projektphasen und Dokumentationsprozesse in Kurzform geschildert