Search (30 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Dokumentenmanagement"
  • × type_ss:"a"
  1. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.01
    0.009595199 = product of:
      0.07196399 = sum of:
        0.06339017 = sum of:
          0.022308165 = weight(_text_:online in 5868) [ClassicSimilarity], result of:
            0.022308165 = score(doc=5868,freq=6.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.23231125 = fieldWeight in 5868, product of:
                2.4494898 = tf(freq=6.0), with freq of:
                  6.0 = termFreq=6.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
          0.041082006 = weight(_text_:recherche in 5868) [ClassicSimilarity], result of:
            0.041082006 = score(doc=5868,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.23954318 = fieldWeight in 5868, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.03125 = fieldNorm(doc=5868)
        0.008573813 = product of:
          0.017147627 = sum of:
            0.017147627 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.017147627 = score(doc=5868,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  2. Paal, S.; Eickeler, S.: Automatisierung vom Scan bis zum elektronischen Lesesaal (2011) 0.01
    0.008003829 = product of:
      0.060028717 = sum of:
        0.026062861 = weight(_text_:web in 4897) [ClassicSimilarity], result of:
          0.026062861 = score(doc=4897,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.25239927 = fieldWeight in 4897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0546875 = fieldNorm(doc=4897)
        0.033965856 = product of:
          0.06793171 = sum of:
            0.06793171 = weight(_text_:analyse in 4897) [ClassicSimilarity], result of:
              0.06793171 = score(doc=4897,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.40748656 = fieldWeight in 4897, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0546875 = fieldNorm(doc=4897)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Gedruckte Medien, wie Bücher, Zeitschriften und Zeitungen sind kulturhistorisch und marktwirtschaftlich wichtige Informationsquellen auf dem Weg zur Wissensgesellschaft. Um sie elektronisch verfügbar zu machen, um sie bereitzustellen und zu vermarkten, werden vorhandene Dokumente digitalisiert, mit besonderen Analyseverfahren inhaltlich erschlossen und über Web-Portale zur Verfügung gestellt. Es ist jedoch eine besondere Herausforderung, sicher und schnell auf zentral verwaltete Dokumentbestände über das Internet zuzugreifen. Beim Abruf von qualitativ hochwertigen Digitalisaten werden große Datenmengen übertragen. Dadurch steigt der Bandbreitenbedarf und die Zugriffszeiten verlängern sich. Außerdem unterliegen urheberrechtlich geschützte Dokumente besonderen gesetzlichen Beschränkungen. Für die wirtschaftliche Verwertung von digitalisierten Druckmedien ist daher neben der inhaltlichen Erschließung auch der Einsatz von geeigneten Leseanwendungen notwendig. Das Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS) entwickelt Techniken,um diese Herausforderungen zu meistern.
  3. Asche, W.: Kein leichtes Brot : Input in Datenbanken (1993) 0.01
    0.0071948846 = product of:
      0.10792326 = sum of:
        0.10792326 = sum of:
          0.025759248 = weight(_text_:online in 3170) [ClassicSimilarity], result of:
            0.025759248 = score(doc=3170,freq=2.0), product of:
              0.096027054 = queryWeight, product of:
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.031640913 = queryNorm
              0.2682499 = fieldWeight in 3170, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                3.0349014 = idf(docFreq=5778, maxDocs=44218)
                0.0625 = fieldNorm(doc=3170)
          0.08216401 = weight(_text_:recherche in 3170) [ClassicSimilarity], result of:
            0.08216401 = score(doc=3170,freq=2.0), product of:
              0.17150146 = queryWeight, product of:
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.031640913 = queryNorm
              0.47908637 = fieldWeight in 3170, product of:
                1.4142135 = tf(freq=2.0), with freq of:
                  2.0 = termFreq=2.0
                5.4202437 = idf(docFreq=531, maxDocs=44218)
                0.0625 = fieldNorm(doc=3170)
      0.06666667 = coord(1/15)
    
    Abstract
    Die Recherche in Datenbanken, ob online erreichbar oder auf CD-ROM, ob in Volltext-, Hinweis-, oder Faktendatenbanken, läßt als mehr oder weniger komplizierte Output-Operation leicht vergessen, daß für den Erfolg der Informationssuche Aktivitäten am anderen Ende, nämlich auf der Input-Seite der Datenbanken, nicht minder bedeutsam sind. Oft wird übersehen, was alles getan werden muß, bevor eine Dokumentationseinheit retrievalfähig eingespeichert ist
  4. Thomas, P.: Verteilte digitale Medienarchivsysteme für kooperative Fernsehproduktion : das Projekt EUROMEDIA (1998) 0.01
    0.0066583436 = product of:
      0.049937576 = sum of:
        0.025676252 = product of:
          0.051352505 = sum of:
            0.051352505 = weight(_text_:recherche in 22) [ClassicSimilarity], result of:
              0.051352505 = score(doc=22,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29942897 = fieldWeight in 22, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=22)
          0.5 = coord(1/2)
        0.024261324 = product of:
          0.048522647 = sum of:
            0.048522647 = weight(_text_:analyse in 22) [ClassicSimilarity], result of:
              0.048522647 = score(doc=22,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29106182 = fieldWeight in 22, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=22)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Der Einzug der digitalen Technologie in die Femsehabteilungen der Rundfunkanstalten begann vor etwa 15 Jahren mit der Einführung von datenbankgestützten Dokumentationssystemen, die den Inhalt des in den Archiven gelagerten Materials in reiner Textform erschlossen. Die bis dahin gebräuchlichen Karteikataloge ablösend, eröffneten diese Systeme durch elektronische Suchmöglichkeiten eine bis dahin nicht gekannte Flexibilität und Geschwindigkeit und damit eine signifikante Erleichterung beim Auffinden und Nutzen von archiviertem Material. Kostendruck und die rasche Zunahme an neuen Spartenkanälen, bedingt durch die Einführung des digitalen Fernsehens, verstärkt den Wunsch nach effizienter Wiederverwendung von Archivmaterial. Die Redakteure wollen dabei das Archivmaterial jederzeit, vom eigenen Schreibtisch aus, auch inhaltsbezogen recherchieren und die Suchergebnisse sofort betrachten. Verstärkte Nutzung und der Wunsch nach visueller Suche und Ergebnisdarstellung machen nicht nur die Einführung geeigneter EDV-Infrastruktur erforderlich, sondem verlangen darüber hinaus einen verstärkten dokumentarischen Aufwand. Dieser zusätzliche Aufwand kann durch geeignete computergestützte Strategien zur Inhaltsanalyse und Visualisierung verringert werden. Eine Gesamtlösung für ein digitales Medienarchiv muß geeignete Verfahren für die Digitalisierung, Analyse, Dokumentation, Recherche, Bereitstellung und Wiederverwendung von Archivmaterial bereitstellen. Das Projekt EUROMEDIA entwirft und realisiert eine offene Archivlösung für verteilte, digitale, multimediale Archive, die diese Forderungen erfüllt und die den Anspruch erhebt, sich als europäischer Standard zu etablieren
  5. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.01
    0.0051872297 = product of:
      0.07780844 = sum of:
        0.07780844 = weight(_text_:software in 3128) [ClassicSimilarity], result of:
          0.07780844 = score(doc=3128,freq=4.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.6198675 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.06666667 = coord(1/15)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
  6. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.005174066 = product of:
      0.038805492 = sum of:
        0.008049765 = product of:
          0.01609953 = sum of:
            0.01609953 = weight(_text_:online in 5863) [ClassicSimilarity], result of:
              0.01609953 = score(doc=5863,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.16765618 = fieldWeight in 5863, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=5863)
          0.5 = coord(1/2)
        0.030755727 = weight(_text_:evaluation in 5863) [ClassicSimilarity], result of:
          0.030755727 = score(doc=5863,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.23172665 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.13333334 = coord(2/15)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Siegling, I.: Dateien auf dem Index : Dokumentenmanagement zu Hause (2000) 0.00
    0.0029343402 = product of:
      0.0440151 = sum of:
        0.0440151 = weight(_text_:software in 5320) [ClassicSimilarity], result of:
          0.0440151 = score(doc=5320,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.35064998 = fieldWeight in 5320, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.0625 = fieldNorm(doc=5320)
      0.06666667 = coord(1/15)
    
    Theme
    Bibliographische Software
  8. Stengl, B.: Betriebswirtschaft aus dem Internet (1999) 0.00
    0.0027388006 = product of:
      0.041082006 = sum of:
        0.041082006 = product of:
          0.08216401 = sum of:
            0.08216401 = weight(_text_:recherche in 3434) [ClassicSimilarity], result of:
              0.08216401 = score(doc=3434,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.47908637 = fieldWeight in 3434, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0625 = fieldNorm(doc=3434)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Gute technische Dokumentation erfordert Beispiele aus der betriebswirtschaftlichen Realittät und die Verwendung von aktuellen, branchenbezogenen Fachtermini. Beides läßt sich ohne großen Aufwand mit einem einfachen Internetzugang recherchieren. Sie erfahren, wie Sie Suchmaschinen, Branchen- und Firmenverzeichnisse, Nachrichtendienste, Fachzeitschriften und Firmenzeitschriften zur Recherche nutzen. Am Beispiel einer Schnittstellendokumentation sehen Sie, wie Sie dann die Ergebnisse der Internetrecherche in Ihre Dokumentation einbinden können
  9. Krüger, J.D.: Kostenlos und gut : Web-Content-Management-Systeme im Überblick (2003) 0.00
    0.0024821775 = product of:
      0.03723266 = sum of:
        0.03723266 = weight(_text_:web in 1726) [ClassicSimilarity], result of:
          0.03723266 = score(doc=1726,freq=2.0), product of:
            0.10326045 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.031640913 = queryNorm
            0.36057037 = fieldWeight in 1726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=1726)
      0.06666667 = coord(1/15)
    
  10. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.00
    0.0024604585 = product of:
      0.036906876 = sum of:
        0.036906876 = weight(_text_:evaluation in 6386) [ClassicSimilarity], result of:
          0.036906876 = score(doc=6386,freq=2.0), product of:
            0.13272417 = queryWeight, product of:
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.031640913 = queryNorm
            0.278072 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1947007 = idf(docFreq=1811, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.06666667 = coord(1/15)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
  11. Schütz, T.: Dokumentenmanagement (2004) 0.00
    0.002200755 = product of:
      0.033011325 = sum of:
        0.033011325 = weight(_text_:software in 2929) [ClassicSimilarity], result of:
          0.033011325 = score(doc=2929,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.2629875 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
      0.06666667 = coord(1/15)
    
    Abstract
    Das Dokumentenmanagement soll das betriebliche Informationsmanagement um geeignete Methoden zur hardware- und softwaregestützten Verarbeitung aller Arten von Dokumenten unter organisatorischen Rahmenbedingungen (z.B. personelle oder rechtliche Aspekte) erweitern. Einem Dokumentenmanagement kommt dabei eine Integrations- und Dokumentationsfunktion zu, die Daten und Dokumente aus unterschiedlichen Quellen entgegennimmt. Dokumente kommen aus unterschiedlicher Anwendungssoftware (z.B. SAP R/3 für die Auftragserfassung oder Leistungsabrechnung), Büro-Software (z.B. Office-Anwendungen für die Erstellung eines Angebotes oder eines Vertrages) oder aus unterschiedlichen Abteilungen, z.B. stellen Entwicklungsabteilungen Post Sales-Dokumentationen (Bedienungshandbücher, Montage- oder Aufbauanleitungen) und Marketingabteilungen Pre Sales-Dokumentationen (Werbebroschüren, Preislisten) bereit. Das Dokumentenmanagement umfasst dabei den kompletten "DokumentLife-Cycle": das Erstellen, Digitalisieren, Indizieren, Archivieren, Wiederfinden, Weiterleiten und Vernichten von Dokumenten. Hard- und Softwareunterstützung erhält das Dokumentenmanagement durch Dokumentenmanagementsysteme.
  12. Wulf, F.: Bilder im Online-Zugriff : Datenbanktechnik für Bildagenturen (1994) 0.00
    0.00212503 = product of:
      0.031875446 = sum of:
        0.031875446 = product of:
          0.06375089 = sum of:
            0.06375089 = weight(_text_:online in 4832) [ClassicSimilarity], result of:
              0.06375089 = score(doc=4832,freq=4.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.6638847 = fieldWeight in 4832, product of:
                  2.0 = tf(freq=4.0), with freq of:
                    4.0 = termFreq=4.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.109375 = fieldNorm(doc=4832)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Source
    Information und Medienvielfalt: 16. Online-Tagung der DGD, Frankfurt am Main, 17.-19.5.1994. Proceedings. Hrsg.: W. Neubauer u. R. Schmidt
  13. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.00
    0.0020018169 = product of:
      0.015013626 = sum of:
        0.006439812 = product of:
          0.012879624 = sum of:
            0.012879624 = weight(_text_:online in 1515) [ClassicSimilarity], result of:
              0.012879624 = score(doc=1515,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.13412495 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
        0.008573813 = product of:
          0.017147627 = sum of:
            0.017147627 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.017147627 = score(doc=1515,freq=2.0), product of:
                0.110801086 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.031640913 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.13333334 = coord(2/15)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
  14. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.00
    0.0017117503 = product of:
      0.025676252 = sum of:
        0.025676252 = product of:
          0.051352505 = sum of:
            0.051352505 = weight(_text_:recherche in 1718) [ClassicSimilarity], result of:
              0.051352505 = score(doc=1718,freq=2.0), product of:
                0.17150146 = queryWeight, product of:
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29942897 = fieldWeight in 1718, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.4202437 = idf(docFreq=531, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=1718)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
  15. Automatische Klassifikation und Extraktion in Documentum (2005) 0.00
    0.0016174216 = product of:
      0.024261324 = sum of:
        0.024261324 = product of:
          0.048522647 = sum of:
            0.048522647 = weight(_text_:analyse in 3974) [ClassicSimilarity], result of:
              0.048522647 = score(doc=3974,freq=2.0), product of:
                0.16670908 = queryWeight, product of:
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.031640913 = queryNorm
                0.29106182 = fieldWeight in 3974, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  5.268782 = idf(docFreq=618, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3974)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Content
    "LCI Comprend ist ab sofort als integriertes Modul für EMCs Content Management System Documentum verfügbar. LCI (Learning Computers International GmbH) hat mit Unterstützung von neeb & partner diese Technologie zur Dokumentenautomation transparent in Documentum integriert. Dies ist die erste bekannte Lösung für automatische, lernende Klassifikation und Extraktion, die direkt auf dem Documentum Datenbestand arbeitet und ohne zusätzliche externe Steuerung auskommt. Die LCI Information Capture Services (ICS) dienen dazu, jegliche Art von Dokument zu klassifizieren und Information daraus zu extrahieren. Das Dokument kann strukturiert, halbstrukturiert oder unstrukturiert sein. Somit können beispielsweise gescannte Formulare genauso verarbeitet werden wie Rechnungen oder E-Mails. Die Extraktions- und Klassifikationsvorschriften und die zu lernenden Beispieldokumente werden einfach interaktiv zusammengestellt und als XML-Struktur gespeichert. Zur Laufzeit wird das Projekt angewendet, um unbekannte Dokumente aufgrund von Regeln und gelernten Beispielen automatisch zu indexieren. Dokumente können damit entweder innerhalb von Documentum oder während des Imports verarbeitet werden. Der neue Server erlaubt das Einlesen von Dateien aus dem Dateisystem oder direkt von POPS-Konten, die Analyse der Dokumente und die automatische Erzeugung von Indexwerten bei der Speicherung in einer Documentum Ablageumgebung. Diese Indexwerte, die durch inhaltsbasierte, auch mehrthematische Klassifikation oder durch Extraktion gewonnen wurden, werden als vordefinierte Attribute mit dem Documentum-Objekt abgelegt. Handelt es sich um ein gescanntes Dokument oder ein Fax, wird automatisch die integrierte Volltext-Texterkennung durchgeführt."
  16. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.00
    0.0014671701 = product of:
      0.02200755 = sum of:
        0.02200755 = weight(_text_:software in 5577) [ClassicSimilarity], result of:
          0.02200755 = score(doc=5577,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.17532499 = fieldWeight in 5577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
      0.06666667 = coord(1/15)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  17. Mikro-Univers : 2. Workshop "Digitalisierung, Erschließung, Internetpräsentation und Langzeitarchivierung" (2004) 0.00
    0.0014671701 = product of:
      0.02200755 = sum of:
        0.02200755 = weight(_text_:software in 3042) [ClassicSimilarity], result of:
          0.02200755 = score(doc=3042,freq=2.0), product of:
            0.12552431 = queryWeight, product of:
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.031640913 = queryNorm
            0.17532499 = fieldWeight in 3042, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9671519 = idf(docFreq=2274, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
      0.06666667 = coord(1/15)
    
    Abstract
    Die Fa. Mikro-Univers GmbH führte am 09.11.2004 in ihren Räumen einen Workshop durch, an dem 34 Bibliothekare und Archivare teilnahmen. Bezogen auf Arbeitsergebnisse aus zwei aktuellen Projekten wurden neue Technologien bei der Digitalisierung und Erschließung vorgestellt und diskutiert. Eine Erweiterung der im Bibliotheksbereich eingesetzten Internetsoftware "Chopin" (www.dilib.info) mit integrierter Bestellfunktion sowie eine Technologie zur Ausgabe von Images auf Mikrofilm wurden präsentiert. Im Modellprojekt "Berlinisch" wird der Bestand der Zentral- und Landesbibliothek Berlin zum Berliner Dialekt aufbereitet. Anders als bei vielen Digitalisierungsprojekten sollen neben der Webpräsentation der Images auch Volltexte erzeugt und die digitalisierten Images für "Print an demand" (PoD) genutzt werden. Die Nutzung der Images für die Druckvorstufe bringt hohe Anforderungen: Beim Scannen mit einem Buchscanner wurde als Auflösung 600 dpi bitonal gewählt. Einige Images, die in Graustufen 300 dpi gescannt werden mussten, wurden auf 600 dpi bitonal umgerechnet. Anschließend ist eine - weitgehend automatisierte - Imagebearbeitung erforderlich um Flecken zu entfernen, den Satzspiegel gerade zu rücken und zu zentrieren sowie einen definierten Druckrand hinzuzufügen. Ausgabeformat für PoD sind PDF-Dateien. Mit der Software "docWORKS" erfolgte die Imageanalyse, die automatische Strukturierung und die Erzeugung eines Volltextes. Die einzelnen Strukturelemente wie Titelblatt, Inhaltsverzeichnis, Kapitelüberschriften und Abbildungen wurden mit dem Volltext als XML-Dateien abgelegt. Die Besonderheit besteht bei diesem Projekt darin, dass ein Großteil der Volltexte aus Frakturschriften erzeugt wurde. Dabei ist das Auslesen von Images, in denen Frakturschriften - bzw. Antiqua- und Frakturschriften gemeinsam - vorkommen, mit hoher Genauigkeit erreicht worden. Für die Darstellung und Suche im Internet sind diese Daten und Images in die Internetsoftware "Chopin" integriert worden. Damit ist sowohl ein Zugriff auf den Bestand über die automatisch erzeugten Strukturelemente als auch über eine Volltextsuche möglich. Der Benutzer kann dann über eine integrierte Bestellfunktion die gewünschten Titel (Bücher oder Teile von Büchern) als PDF-Datei herunterladen oder als Ausdruck über PoD bestellen. Die PDF-Dateien enthalten die komprimierten Images in 300 dpi, aber auch die Strukturinformationen aus "docWorks" und in einem unsichtbaren Layer den recherchierbaren Volltext. Die PDF-Dateien sind auch bei ganzen Büchern meist nur wenige MByte groß.
  18. Schöhl, W.: ¬Ein umfassendes Datenbanksystem für Print, Radio, Fernsehen und das Internet : Die Online-Anbindung, Adressverwaltung, Bürokommunikation und Medienanalyse (1997) 0.00
    0.0012879624 = product of:
      0.019319436 = sum of:
        0.019319436 = product of:
          0.03863887 = sum of:
            0.03863887 = weight(_text_:online in 6557) [ClassicSimilarity], result of:
              0.03863887 = score(doc=6557,freq=8.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.40237486 = fieldWeight in 6557, product of:
                  2.828427 = tf(freq=8.0), with freq of:
                    8.0 = termFreq=8.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.046875 = fieldNorm(doc=6557)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
    Abstract
    Es wird die Verknüpfung des Multimedia-Pressesystems mit den wichtigsten Online-Datenbanken von Zeitungen, Zeitschriften, Nachrichtenagenturen und em Internet vorgestellt. Mittels Direkt-Importprogrammen können alle Dokumente aus Online-Datenbanken feldweise in die interne Mediendatenbank heruntergeladen werden und stehen somit zur Medien- und Imageanalyse zur Verfügung. Durch die angebundene Imageverwaltung können die Online-Artikel durch Bilder oder Images der Printversion ergänzt werden. Die integrierte Personen- und Firmendatenbank sowie die Anbindung einer Journalistendatenbank an alle Arten von Mediendokumenten erweist sich als vorteilhaft für die Aufdatierung von Verteilern und die rasche Reaktion auf Medienereignisse. Die Datenbank für Bürokommunikation kann für die Verwaltung von Schriftverkehr auf ähnliche Weise wie die Mediendatenbank benutzt werden, was den Einarbeitungsaufwand minimieren soll. So kann an das Voicetype-Spracherkennungssystem von IBM angekoppelt werden, um so etwa das Abstracting bei Hörfunk- und Fernsehberichten zu vereinfachen. Die Dokumente des gesamten Datenbanksystems können schließlich über Intranet- und Internetanbindung relativ einfach und kostengünstig verteilt werden. Insgesamt soll die konsequente Anwendung solcher Datenbanksysteme zu einer Produktivitätssteigerung von 50-100% führen
  19. Lingelbach-Hupfauer, C.: ¬Das ZDF-Modell eines Multimedia-Archivspeichersystems für Online-Dokumente (2003) 0.00
    0.0012879624 = product of:
      0.019319436 = sum of:
        0.019319436 = product of:
          0.03863887 = sum of:
            0.03863887 = weight(_text_:online in 1449) [ClassicSimilarity], result of:
              0.03863887 = score(doc=1449,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.40237486 = fieldWeight in 1449, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1449)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)
    
  20. Booms, U.: Daten, User und Producer : Multifunktionale Anforderungen an die Datenbanken bei Spiegel Online (2003) 0.00
    0.0012879624 = product of:
      0.019319436 = sum of:
        0.019319436 = product of:
          0.03863887 = sum of:
            0.03863887 = weight(_text_:online in 1510) [ClassicSimilarity], result of:
              0.03863887 = score(doc=1510,freq=2.0), product of:
                0.096027054 = queryWeight, product of:
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.031640913 = queryNorm
                0.40237486 = fieldWeight in 1510, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.0349014 = idf(docFreq=5778, maxDocs=44218)
                  0.09375 = fieldNorm(doc=1510)
          0.5 = coord(1/2)
      0.06666667 = coord(1/15)