Search (51 results, page 1 of 3)

  • × year_i:[2000 TO 2010}
  • × theme_ss:"Dokumentenmanagement"
  1. Mas, S.; Marleau, Y.: Proposition of a faceted classification model to support corporate information organization and digital records management (2009) 0.14
    0.13919418 = product of:
      0.27838835 = sum of:
        0.068278834 = product of:
          0.20483649 = sum of:
            0.20483649 = weight(_text_:3a in 2918) [ClassicSimilarity], result of:
              0.20483649 = score(doc=2918,freq=2.0), product of:
                0.36446604 = queryWeight, product of:
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.042989567 = queryNorm
                0.56201804 = fieldWeight in 2918, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  8.478011 = idf(docFreq=24, maxDocs=44218)
                  0.046875 = fieldNorm(doc=2918)
          0.33333334 = coord(1/3)
        0.005273023 = weight(_text_:in in 2918) [ClassicSimilarity], result of:
          0.005273023 = score(doc=2918,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.09017298 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
        0.20483649 = weight(_text_:2f in 2918) [ClassicSimilarity], result of:
          0.20483649 = score(doc=2918,freq=2.0), product of:
            0.36446604 = queryWeight, product of:
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.042989567 = queryNorm
            0.56201804 = fieldWeight in 2918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.478011 = idf(docFreq=24, maxDocs=44218)
              0.046875 = fieldNorm(doc=2918)
      0.5 = coord(3/6)
    
    Abstract
    The employees of an organization often use a personal hierarchical classification scheme to organize digital documents that are stored on their own workstations. As this may make it hard for other employees to retrieve these documents, there is a risk that the organization will lose track of needed documentation. Furthermore, the inherent boundaries of such a hierarchical structure require making arbitrary decisions about which specific criteria the classification will b.e based on (for instance, the administrative activity or the document type, although a document can have several attributes and require classification in several classes).A faceted classification model to support corporate information organization is proposed. Partially based on Ranganathan's facets theory, this model aims not only to standardize the organization of digital documents, but also to simplify the management of a document throughout its life cycle for both individuals and organizations, while ensuring compliance to regulatory and policy requirements.
    Footnote
    Vgl.: http://ieeexplore.ieee.org/Xplore/login.jsp?reload=true&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4755313%2F4755314%2F04755480.pdf%3Farnumber%3D4755480&authDecision=-203.
  2. Hughes, C.: Modern records management : key skills and core competencies (2005) 0.11
    0.109282 = product of:
      0.163923 = sum of:
        0.008610812 = weight(_text_:in in 4516) [ClassicSimilarity], result of:
          0.008610812 = score(doc=4516,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14725187 = fieldWeight in 4516, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=4516)
        0.04216961 = weight(_text_:education in 4516) [ClassicSimilarity], result of:
          0.04216961 = score(doc=4516,freq=2.0), product of:
            0.2025344 = queryWeight, product of:
              4.7112455 = idf(docFreq=1080, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082096 = fieldWeight in 4516, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7112455 = idf(docFreq=1080, maxDocs=44218)
              0.03125 = fieldNorm(doc=4516)
        0.060237244 = weight(_text_:great in 4516) [ClassicSimilarity], result of:
          0.060237244 = score(doc=4516,freq=2.0), product of:
            0.24206476 = queryWeight, product of:
              5.6307793 = idf(docFreq=430, maxDocs=44218)
              0.042989567 = queryNorm
            0.24884763 = fieldWeight in 4516, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.6307793 = idf(docFreq=430, maxDocs=44218)
              0.03125 = fieldNorm(doc=4516)
        0.052905336 = product of:
          0.10581067 = sum of:
            0.10581067 = weight(_text_:britain in 4516) [ClassicSimilarity], result of:
              0.10581067 = score(doc=4516,freq=2.0), product of:
                0.32082173 = queryWeight, product of:
                  7.462781 = idf(docFreq=68, maxDocs=44218)
                  0.042989567 = queryNorm
                0.32981142 = fieldWeight in 4516, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  7.462781 = idf(docFreq=68, maxDocs=44218)
                  0.03125 = fieldNorm(doc=4516)
          0.5 = coord(1/2)
      0.6666667 = coord(4/6)
    
    Abstract
    Discusses the skills and competencies required by contemporary records managers. The role of the records manager has recently gained a higher profile - due to increasing legislation (resulting from various corporate scandals worldwide) requiring organisations to focus an the integrity, currency and accessibility of their records. Case studies are included in the book to indicate the wide range of activities undertaken by records managers. The book addresses the skills and competencies required by records managers and considers how these are acquired and developed. Using guidance, actions plans can be developed by the reader. Using research undertaken by the author, a sample of roles currently undertaken is evaluated in detail to provide examples of the competencies and skills required for each role.
    Content
    Key Features - Fills the gap in the literature addressing competencies for records managers - Emerging legislation and regulatory frameworks and recent corporate scandals haue provided opportunities for records managers to increase their profile and involvement at the strategic level of their organisation. This book provides information an the required competencies to support and enable this higher profile - The author is a highly experienced practitioner, and also has a post-graduate qualification in the area - The use of case studies of practicing records managers provides real-life examples of the diversity of the contemporary records manager The Author Ceri Hughes is Associate Director of Global Knowledge Management at KPMG Financial Advisory Services. She is an active member of the Records Management Society of Great Britain, served four years an the Society's executive and is currently the Immediate Past Chair, having chaired the Society 2001-2003. Readership Records management and knowledge management practitioners. Data protection/Privacy/ Freedom of Information professionals. Information management sector training professionals. Records management students Contents Part 1: The role of the records manager - Records management in the modern environment: Records managers-'basement to boardroom': evaluating the range of roles: Records management in the knowledge economy Part 2: Skills and competencies - Core competencies: Core skills: Adding value Part 3: Records management and career progression - Continuing professional development: Higher education: Professional networks: Continuing career development Part 4: Conclusions - Conclusion: Useful directory
  3. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.01
    0.007942172 = product of:
      0.023826513 = sum of:
        0.012177527 = weight(_text_:in in 1512) [ClassicSimilarity], result of:
          0.012177527 = score(doc=1512,freq=24.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 1512, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.011648986 = product of:
          0.023297971 = sum of:
            0.023297971 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.023297971 = score(doc=1512,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
  4. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.01
    0.007390729 = product of:
      0.022172187 = sum of:
        0.0076109543 = weight(_text_:in in 3220) [ClassicSimilarity], result of:
          0.0076109543 = score(doc=3220,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1301535 = fieldWeight in 3220, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.014561232 = product of:
          0.029122464 = sum of:
            0.029122464 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.029122464 = score(doc=3220,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Date
    6.12.2009 17:22:17
  5. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.01
    0.007197298 = product of:
      0.021591894 = sum of:
        0.009942909 = weight(_text_:in in 5868) [ClassicSimilarity], result of:
          0.009942909 = score(doc=5868,freq=16.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 5868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.011648986 = product of:
          0.023297971 = sum of:
            0.023297971 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.023297971 = score(doc=5868,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
  6. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.01
    0.007197298 = product of:
      0.021591894 = sum of:
        0.009942909 = weight(_text_:in in 1513) [ClassicSimilarity], result of:
          0.009942909 = score(doc=1513,freq=16.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.17003182 = fieldWeight in 1513, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.011648986 = product of:
          0.023297971 = sum of:
            0.023297971 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.023297971 = score(doc=1513,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  7. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.01
    0.006753266 = product of:
      0.020259798 = sum of:
        0.008610812 = weight(_text_:in in 1507) [ClassicSimilarity], result of:
          0.008610812 = score(doc=1507,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.14725187 = fieldWeight in 1507, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.011648986 = product of:
          0.023297971 = sum of:
            0.023297971 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
              0.023297971 = score(doc=1507,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.15476047 = fieldWeight in 1507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1507)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
  8. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.01
    0.006743009 = product of:
      0.020229027 = sum of:
        0.011492288 = weight(_text_:in in 1833) [ClassicSimilarity], result of:
          0.011492288 = score(doc=1833,freq=38.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.19652747 = fieldWeight in 1833, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.008736739 = product of:
          0.017473478 = sum of:
            0.017473478 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.017473478 = score(doc=1833,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22
  9. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.01
    0.0065031825 = product of:
      0.019509546 = sum of:
        0.00786056 = weight(_text_:in in 1515) [ClassicSimilarity], result of:
          0.00786056 = score(doc=1515,freq=10.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.13442196 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.011648986 = product of:
          0.023297971 = sum of:
            0.023297971 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.023297971 = score(doc=1515,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  10. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.01
    0.0063184733 = product of:
      0.018955419 = sum of:
        0.004394186 = weight(_text_:in in 1938) [ClassicSimilarity], result of:
          0.004394186 = score(doc=1938,freq=2.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.07514416 = fieldWeight in 1938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
        0.014561232 = product of:
          0.029122464 = sum of:
            0.029122464 = weight(_text_:22 in 1938) [ClassicSimilarity], result of:
              0.029122464 = score(doc=1938,freq=2.0), product of:
                0.15054214 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.042989567 = queryNorm
                0.19345059 = fieldWeight in 1938, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1938)
          0.5 = coord(1/2)
      0.33333334 = coord(2/6)
    
    Abstract
    Thema dieser Arbeit ist eine Untersuchung des digitalen Bilderhandels. Es wird die Akzeptanz und die Nutzung von Bilddatenbanken in der Bildbranche analysiert, mit dem Ziel, ein Optimierungskonzept für die Bilddatenbank der jump Fotoagentur zu entwerfen. Zur Einführung werden die Grundlagen der Bildbranche erläutert und auf die Beteiligten und ihre Aufgabenbereiche eingegangen. Es folgt eine Darstellung der Entwicklung der Digitalisierung und den dadurch verursachten Wandel des Bildermarktes. Im Anschluss werden die Möglichkeiten des Bildmanagements und deren Zusammenhang mit der Bildvermarktung aufgezeigt. Weiterhin wird das Bildmanagement-System der jump Fotoagentur näher beschrieben. Mit Hilfe der gewonnen Ergebnisse aus der durchgeführten Befragung wird ein Konzept zur Verbesserung dieses Systems erstellt. Die Erkenntnisse werden zusammengefasst und ein Ausblick auf die Zukunft des digitalen Bilderhandels gegeben.
    Date
    22. 6.2008 17:34:12
  11. Salminen, A.: Modeling documents in their context (2009) 0.00
    0.0025114869 = product of:
      0.01506892 = sum of:
        0.01506892 = weight(_text_:in in 3847) [ClassicSimilarity], result of:
          0.01506892 = score(doc=3847,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2576908 = fieldWeight in 3847, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3847)
      0.16666667 = coord(1/6)
    
    Abstract
    This entry describes notions and methods for analyzing and modeling documents in an organizational context. A model for the analysis process is provided and methods for data gathering, modeling, and user needs analysis described. The methods have been originally developed and tested during document standardization activities carried out in the Finnish Parliament and ministries. Later the methods have been adopted and adapted in other Finnish organizations in their document management development projects. The methods are intended especially for cases where the goal is to develop an Extensible Markup Language (XML)-based solution for document management. This entry emphasizes the importance of analyzing and describing documents in their organizational context.
  12. Kampffmeyer, U.: Records Management und Schriftgutverwaltung (2009) 0.00
    0.0023435662 = product of:
      0.014061396 = sum of:
        0.014061396 = weight(_text_:in in 3131) [ClassicSimilarity], result of:
          0.014061396 = score(doc=3131,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.24046129 = fieldWeight in 3131, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3131)
      0.16666667 = coord(1/6)
    
    Abstract
    Der Begriff Records Management ist in Deutschland wenig geläufig. Die zugehörige ISO/DIN-Norm wird mit Schriftgutverwaltung übersetzt. Die Akzeptanz von Records Management entspricht nicht der Bedeutung, die die ordnungsgemäße Verwaltung und Erschließung von elektronischen Dokumenten in der öffentlichen Verwaltung und der freien Wirtschaft hat. Marktuntersuchungen haben gezeigt, dass der Einsatz von Records Management in Deutschland noch am Anfang steht.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  13. Spree, U.: Wissensorganisation und Records Management : Was ist der State of the Art? Literaturübersicht (2009) 0.00
    0.0022926633 = product of:
      0.01375598 = sum of:
        0.01375598 = weight(_text_:in in 3132) [ClassicSimilarity], result of:
          0.01375598 = score(doc=3132,freq=10.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.23523843 = fieldWeight in 3132, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
      0.16666667 = coord(1/6)
    
    Abstract
    Ordnungssysteme, vor allem in Form von Aktenplänen und business classifications schemes, gelten weiterhin als ein Kernelement von elektronischen Records Management Systemen. Die Rezeption und Nutzung von in den Informations- und Bibliothekswissenschaften entwickelten normativen Vorgaben und/oder Forschungsergebnissen zu Ordnungssystemen ist in der Records Management Community hingegen noch eher selten und zufällig. Aufgrund der Auswertung aktueller Fachliteratur zum Thema Records Management / Schriftgutverwaltung sowie der Erfahrungen der Autorin in zwei Lehrveranstaltungen, die die Eignung informationswissenschaftlicher Ansätze der Wissensorganisation auf Probleme der Schriftgutverwaltung überprüft haben, lässt sich eine Reihe von konkreten Empfehlungen für die Integration wissensorganisatorischer Expertise bei der Entwicklung von Records Management Systemen auf organisatorischer und inhaltlicher Ebene ableiten.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  14. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.00
    0.0020714393 = product of:
      0.012428636 = sum of:
        0.012428636 = weight(_text_:in in 3128) [ClassicSimilarity], result of:
          0.012428636 = score(doc=3128,freq=4.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21253976 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.16666667 = coord(1/6)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  15. Otten, B.A.: Funktionsprofile : Neue Herausforderung für schnelleren Informationsfluss und Kostensenkungen bei DMS und WFM (2003) 0.00
    0.0020506203 = product of:
      0.012303721 = sum of:
        0.012303721 = weight(_text_:in in 1120) [ClassicSimilarity], result of:
          0.012303721 = score(doc=1120,freq=8.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.21040362 = fieldWeight in 1120, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1120)
      0.16666667 = coord(1/6)
    
    Abstract
    Im Laufe der Jahre wurden die Prozesse von Dokumentmanagementsystem (DMS) und Workflow-Management (WFM) immer besser in Informationsprozesse eingebettet. Mit Business Process Management (BPM) bezeichnet man die Verschmelzung von DMS und WFM, und auch die Integration mit dem Internet spielt hierbei eine Rolle. Content Management kann auf effiziente Weise zu einem optimalen BPM beitragen. Kommunikation in Arbeitsprozessen ist die Verwendung von Dokumenten durch Mitarbeiter untereinander. Die heutigen Entwicklungen insbesondere bei Enterprise Portals (unternehmensweite Einbettung in Arbeitsprozesse) erfordert einen direkten und automatischen Zugang zu allen Arten von "Dokumenten" in allen Prozessen. Die Erstellung von Funktionsprofilen ist ein neues und anspruchsvolles, aber auch notwen diges Hilfsmittel, um BPM erfolgreich einsetzen zu können
  16. Batley, S.: ¬The I in information architecture : the challenge of content management (2007) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 809) [ClassicSimilarity], result of:
          0.012177527 = score(doc=809,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 809, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=809)
      0.16666667 = coord(1/6)
    
    Abstract
    Purpose - The purpose of this paper is to provide a review of content management in the context of information architecture. Design/methodology/approach - The method adopted is a review of definitions of information architecture and an analysis of the importance of content and its management within information architecture. Findings - Concludes that reality will not necessarily match the vision of organisations investing in information architecture. Originality/value - The paper considers practical issues around content and records management.
  17. Gennis, M.: Schriftgutverwaltung und Langzeitarchivierung : Records Management (k)ein Thema an informationswissenschaftlichen Ausbildungsstätten in Deutschland? (2009) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 3129) [ClassicSimilarity], result of:
          0.012177527 = score(doc=3129,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 3129, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3129)
      0.16666667 = coord(1/6)
    
    Abstract
    Da bei der Umsetzung einer digitalen Schriftgutverwaltung Fragen der Langzeitarchivierung von Beginn an beantwortet werden müssen, besteht zwischen diesen beiden Themenfeldern ein enger Zusammenhang. Insbesondere für die Langverfügbarkeit wissenschaftlicher Daten ist eine durchdachte Schriftgutverwaltung nicht verzichtbar. Informationswissenschaftliche Ausbildungseinrichtungen in Deutschland sollten sich daher diesem Thema zuwenden und dabei von den Erfahrungen und Erkenntnissen des Verwaltungswesens profitieren.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
  18. Dalipi, B.: Dokumenten-Management und Verwendung von Metadaten bei einem Energieversorgungsunternehmen (2008) 0.00
    0.002029588 = product of:
      0.012177527 = sum of:
        0.012177527 = weight(_text_:in in 3405) [ClassicSimilarity], result of:
          0.012177527 = score(doc=3405,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.2082456 = fieldWeight in 3405, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3405)
      0.16666667 = coord(1/6)
    
    Abstract
    Die vorliegende Arbeit befasst sich im ersten Teil mit den theoretischen Grundlagen, Aufgaben und Funktionen eines Dokumentenmanagement-Systems. In diesem Zusammenhang erklärt werden auch Metadaten, Indexierung, Thesaurus und die bekanntesten Klassifikationssysteme. Erwähnt werden auch das Semantic Web und dessen Technologien. Die Schritte der Realisierung einer SQL-Datenbank, in welcher die Metadaten abgebildet werden, werden in den praktischen Teil der Arbeit näher beschrieben.
  19. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.00
    0.001793919 = product of:
      0.010763514 = sum of:
        0.010763514 = weight(_text_:in in 1824) [ClassicSimilarity], result of:
          0.010763514 = score(doc=1824,freq=12.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.18406484 = fieldWeight in 1824, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
      0.16666667 = coord(1/6)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
  20. Mas, S.; Zaher, L'H.; Zacklad, M.: Design and evaluation of multi-viewed knowledge system for administrative electronic document organization (2008) 0.00
    0.0017758894 = product of:
      0.010655336 = sum of:
        0.010655336 = weight(_text_:in in 2256) [ClassicSimilarity], result of:
          0.010655336 = score(doc=2256,freq=6.0), product of:
            0.058476754 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.042989567 = queryNorm
            0.1822149 = fieldWeight in 2256, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2256)
      0.16666667 = coord(1/6)
    
    Content
    This paper describes part of a current research investigating the feasibility of creating a faceted and multi-viewed knowledge organization system (KOS) for administrative document organization in online environments. Preliminary findings support the faceted and multi-viewed classification as a promising altemative to the hierarchical paradigm for personal administrative electronic documents organization. Further analysis about identification of semantic relations between facets to reduce number of facet descriptors is required. Technical improvements are also needed to enhance the faceted navigation interface used within the pilot test.
    Series
    Advances in knowledge organization; vol.11
    Source
    Culture and identity in knowledge organization: Proceedings of the Tenth International ISKO Conference 5-8 August 2008, Montreal, Canada. Ed. by Clément Arsenault and Joseph T. Tennis

Languages

  • d 36
  • e 15

Types

  • a 38
  • x 8
  • m 4
  • el 1
  • s 1
  • More… Less…