Search (53 results, page 1 of 3)

  • × theme_ss:"Dokumentenmanagement"
  • × type_ss:"a"
  • × year_i:[2000 TO 2010}
  1. Schütz, T.: Dokumentenmanagement (2004) 0.09
    0.088009015 = product of:
      0.15401576 = sum of:
        0.08139597 = weight(_text_:methoden in 2929) [ClassicSimilarity], result of:
          0.08139597 = score(doc=2929,freq=2.0), product of:
            0.23693791 = queryWeight, product of:
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.045721713 = queryNorm
            0.3435329 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1821747 = idf(docFreq=674, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.042112123 = weight(_text_:und in 2929) [ClassicSimilarity], result of:
          0.042112123 = score(doc=2929,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 2929, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.0056081433 = weight(_text_:in in 2929) [ClassicSimilarity], result of:
          0.0056081433 = score(doc=2929,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.09017298 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
        0.024899531 = weight(_text_:den in 2929) [ClassicSimilarity], result of:
          0.024899531 = score(doc=2929,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 2929, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=2929)
      0.5714286 = coord(4/7)
    
    Abstract
    Das Dokumentenmanagement soll das betriebliche Informationsmanagement um geeignete Methoden zur hardware- und softwaregestützten Verarbeitung aller Arten von Dokumenten unter organisatorischen Rahmenbedingungen (z.B. personelle oder rechtliche Aspekte) erweitern. Einem Dokumentenmanagement kommt dabei eine Integrations- und Dokumentationsfunktion zu, die Daten und Dokumente aus unterschiedlichen Quellen entgegennimmt. Dokumente kommen aus unterschiedlicher Anwendungssoftware (z.B. SAP R/3 für die Auftragserfassung oder Leistungsabrechnung), Büro-Software (z.B. Office-Anwendungen für die Erstellung eines Angebotes oder eines Vertrages) oder aus unterschiedlichen Abteilungen, z.B. stellen Entwicklungsabteilungen Post Sales-Dokumentationen (Bedienungshandbücher, Montage- oder Aufbauanleitungen) und Marketingabteilungen Pre Sales-Dokumentationen (Werbebroschüren, Preislisten) bereit. Das Dokumentenmanagement umfasst dabei den kompletten "DokumentLife-Cycle": das Erstellen, Digitalisieren, Indizieren, Archivieren, Wiederfinden, Weiterleiten und Vernichten von Dokumenten. Hard- und Softwareunterstützung erhält das Dokumentenmanagement durch Dokumentenmanagementsysteme.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  2. Schlenkrich, C.: Aspekte neuer Regelwerksarbeit : Multimediales Datenmodell für ARD und ZDF (2003) 0.06
    0.064739995 = product of:
      0.11329499 = sum of:
        0.048626892 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.048626892 = score(doc=1515,freq=48.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.47985753 = fieldWeight in 1515, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.008360127 = weight(_text_:in in 1515) [ClassicSimilarity], result of:
          0.008360127 = score(doc=1515,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.13442196 = fieldWeight in 1515, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.043918647 = weight(_text_:den in 1515) [ClassicSimilarity], result of:
          0.043918647 = score(doc=1515,freq=14.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.33513537 = fieldWeight in 1515, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1515)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 1515) [ClassicSimilarity], result of:
              0.024778644 = score(doc=1515,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 1515, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1515)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Wir sind mitten in der Arbeit, deshalb kann ich Ihnen nur Arbeitsstände weitergeben. Es ist im Fluss, und wir bemühen uns in der Tat, die "alten Regelwerke" fit zu machen und sie für den Multimediabereich aufzuarbeiten. Ganz kurz zur Arbeitsgruppe: Sie entstammt der AG Orgatec, der Schall- und Hörfunkarchivleiter- und der Fernseharchivleiterkonferenz zur Erstellung eines verbindlichen multimedialen Regelwerks. Durch die Digitalisierung haben sich die Aufgaben in den Archivbereichen eindeutig geändert. Wir versuchen, diese Prozesse abzufangen, und zwar vom Produktionsprozess bis hin zur Archivierung neu zu regeln und neu zu definieren. Wir haben mit unserer Arbeit begonnen im April letzten Jahres, sind also jetzt nahezu exakt ein Jahr zugange, und ich werde Ihnen im Laufe des kurzen Vortrages berichten können, wie wir unsere Arbeit gestaltet haben. Etwas zu den Mitgliedern der Arbeitsgruppe - ich denke, es ist ganz interessant, einfach mal zu sehen, aus welchen Bereichen und Spektren unsere Arbeitsgruppe sich zusammensetzt. Wir haben also Vertreter des Bayrischen Rundfunks, des Norddeutschen -, des Westdeutschen Rundfunks, des Mitteldeutschen von Ost nach West, von Süd nach Nord und aus den verschiedensten Arbeitsbereichen von Audio über Video bis hin zu Online- und Printbereichen. Es ist eine sehr bunt gemischte Truppe, aber auch eine hochspannenden Diskussion exakt eben aufgrund der Vielfalt, die wir abbilden wollen und abbilden müssen. Die Ziele: Wir wollen verbindlich ein multimediales Datenmodell entwickeln und verabschieden, was insbesondere den digitalen Produktionscenter und Archiv-Workflow von ARD und - da haben wir uns besonders gefreut - auch in guter alter Tradition in gemeinsamer Zusammenarbeit mit dem ZDF bildet. Wir wollen Erfassungs- und Erschließungsregeln definieren. Wir wollen Mittlerdaten generieren und bereitstellen, um den Produktions-Workflow abzubilden und zu gewährleisten, und das Datenmodell, das wir uns sozusagen als Zielstellung definiert haben, soll für den Programmaustausch Grundlagen schaffen, damit von System zu System intern und extern kommuniziert werden kann. Nun könnte man meinen, dass ein neues multimediales Datenmodell aus einem Mix der alten Regelwerke Fernsehen, Wort und Musik recht einfach zusammenzuführen sei. Man stellt einfach die Datenlisten der einzelnen Regelwerke synoptisch gegenüber, klärt Gemeinsames und Spezifisches ab, ergänzt Fehlendes, eliminiert eventuell nicht Benötigtes und stellt es einfach neu zusammen, fertig ist das neue Regelwerk. Leider ist es nicht ganz so einfach, denn es gibt dabei doch eine ganze Reihe von Aspekten zu berücksichtigen, die eine vorgelagerte Abstraktionsebene auch zwingend erforderlich machen.
    Date
    22. 4.2003 12:05:56
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  3. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.05
    0.050601013 = product of:
      0.08855177 = sum of:
        0.042112123 = weight(_text_:und in 5868) [ClassicSimilarity], result of:
          0.042112123 = score(doc=5868,freq=36.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.41556883 = fieldWeight in 5868, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.010574817 = weight(_text_:in in 5868) [ClassicSimilarity], result of:
          0.010574817 = score(doc=5868,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 5868, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.023475504 = weight(_text_:den in 5868) [ClassicSimilarity], result of:
          0.023475504 = score(doc=5868,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.17913738 = fieldWeight in 5868, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.024778644 = score(doc=5868,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
    Date
    16. 5.2001 12:22:23
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  4. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.05
    0.048504334 = product of:
      0.08488258 = sum of:
        0.038442936 = weight(_text_:und in 1513) [ClassicSimilarity], result of:
          0.038442936 = score(doc=1513,freq=30.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3793607 = fieldWeight in 1513, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.010574817 = weight(_text_:in in 1513) [ClassicSimilarity], result of:
          0.010574817 = score(doc=1513,freq=16.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.17003182 = fieldWeight in 1513, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.023475504 = weight(_text_:den in 1513) [ClassicSimilarity], result of:
          0.023475504 = score(doc=1513,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.17913738 = fieldWeight in 1513, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.024778644 = score(doc=1513,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  5. Wandeler, J.: Comprenez-vous only Bahnhof? : Mehrsprachigkeit in der Mediendokumentation (2003) 0.04
    0.04190228 = product of:
      0.07332899 = sum of:
        0.031388525 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
          0.031388525 = score(doc=1512,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3097467 = fieldWeight in 1512, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.012951453 = weight(_text_:in in 1512) [ClassicSimilarity], result of:
          0.012951453 = score(doc=1512,freq=24.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2082456 = fieldWeight in 1512, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.016599689 = weight(_text_:den in 1512) [ClassicSimilarity], result of:
          0.016599689 = score(doc=1512,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.12666926 = fieldWeight in 1512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1512)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 1512) [ClassicSimilarity], result of:
              0.024778644 = score(doc=1512,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 1512, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1512)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Das Hauptthema dieser Tagung - Multimedia - beschäftigt sich mit der Vielfalt der Medien und Quellen, mit denen wir es heute zu tun haben. Da liegt es nahe, sich auch mit einer anderen Form der Vielfalt, dem Thema Mehrsprachigkeit zu beschäftigen. Und die Veranstalter dieser Tagung waren der Meinung, dass ein Schweizer dazu mit Sicherheit etwas zu sagen habe. Das ist insofern richtig, als wir in einem mehrsprachigen Land leben und mit diesem Problem im Alltag vertraut sind, sowohl im täglichen Leben, wie auch eben im dokumentarischen Alltag. Aus dieser praktischen Sicht und nicht als Sprachwissenschafter, der ich nicht bin, möchte ich mich dem Thema nähern. Die Vielfalt der deutschen Sprache: Wenn die Schweiz ein mehrsprachiges Land ist - ist dann Deutschland im Gegensatz dazu ein einsprachiges Land? Auf den ersten Blick sicher ja - in Deutschland spricht man deutsch - aber die Sache ist doch nicht so einfach. Natürlich leben auch hier, wie überall, Menschen aus anderen Ländern mit anderen Muttersprachen - in dieser Optik gibt es wohl fast nur mehrsprachige Länder. Aber auch wenn wir nur die einheimische Bevölkerung mit deutschem Pass betrachten, ist die Sache nicht so eindeutig. Zwar haben sie das Deutsche als gemeinsame Sprache, die von allen gesprochen und verstanden wird. Aber die eigentliche Muttersprache der Deutschen oder mindestens einer grossen Mehrheit ist nicht das Hochdeutsche, sondern einer der vielen Dialekte. Diese Dialekte sind ja höchst unterschiedlich und einem Bayern oder Schwaben geht es sicher nicht anders, als es mir vor Jahren ergangen ist, als ich in Norddeutschland erstmals plattdeutsch sprechen hörte: ich hab nicht mal mehr Bahnhof verstanden und benötigte einige Wochen, bis ich der Unterhaltung wenigstens in groben Zügen folgen konnte. Das Hochdeutsche ist da der gemeinsame Nenner und ermöglichst erst die Verständigung, auch wenn es mit vielfältigen Akzenten und regional eingefärbtem Vokabular gesprochen wird. In diesem Sinne ist die Situation nicht anders als in der deutschsprachigen Schweiz, wo auch ganz unterschiedliche Dialekte gesprochen werden. Allerdings gibt es doch einen wichtigen Unterschied: Hier in Deutschland ist Hochdeutsch die allgemeine Umgangssprache sowohl in der mündlichen wie in der schriftlichen Kommunikation. Dialekte werden im privaten Bereich gesprochen, aber im öffentlichen Bereich, im Geschäftsleben, in der Wissenschaft etc. ist Hochdeutsch die Umgangssprache.
    Date
    22. 4.2003 12:09:10
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  6. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.04
    0.04144656 = product of:
      0.07253148 = sum of:
        0.034384403 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
          0.034384403 = score(doc=1507,freq=24.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.33931053 = fieldWeight in 1507, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.00915806 = weight(_text_:in in 1507) [ClassicSimilarity], result of:
          0.00915806 = score(doc=1507,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14725187 = fieldWeight in 1507, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.016599689 = weight(_text_:den in 1507) [ClassicSimilarity], result of:
          0.016599689 = score(doc=1507,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.12666926 = fieldWeight in 1507, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
        0.012389322 = product of:
          0.024778644 = sum of:
            0.024778644 = weight(_text_:22 in 1507) [ClassicSimilarity], result of:
              0.024778644 = score(doc=1507,freq=2.0), product of:
                0.16010965 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.045721713 = queryNorm
                0.15476047 = fieldWeight in 1507, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1507)
          0.5 = coord(1/2)
      0.5714286 = coord(4/7)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Date
    22. 4.2003 11:45:36
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  7. Spree, U.: Wissensorganisation und Records Management : Was ist der State of the Art? Literaturübersicht (2009) 0.04
    0.039775923 = product of:
      0.09281048 = sum of:
        0.04913081 = weight(_text_:und in 3132) [ClassicSimilarity], result of:
          0.04913081 = score(doc=3132,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4848303 = fieldWeight in 3132, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
        0.014630223 = weight(_text_:in in 3132) [ClassicSimilarity], result of:
          0.014630223 = score(doc=3132,freq=10.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.23523843 = fieldWeight in 3132, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
        0.029049452 = weight(_text_:den in 3132) [ClassicSimilarity], result of:
          0.029049452 = score(doc=3132,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 3132, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3132)
      0.42857143 = coord(3/7)
    
    Abstract
    Ordnungssysteme, vor allem in Form von Aktenplänen und business classifications schemes, gelten weiterhin als ein Kernelement von elektronischen Records Management Systemen. Die Rezeption und Nutzung von in den Informations- und Bibliothekswissenschaften entwickelten normativen Vorgaben und/oder Forschungsergebnissen zu Ordnungssystemen ist in der Records Management Community hingegen noch eher selten und zufällig. Aufgrund der Auswertung aktueller Fachliteratur zum Thema Records Management / Schriftgutverwaltung sowie der Erfahrungen der Autorin in zwei Lehrveranstaltungen, die die Eignung informationswissenschaftlicher Ansätze der Wissensorganisation auf Probleme der Schriftgutverwaltung überprüft haben, lässt sich eine Reihe von konkreten Empfehlungen für die Integration wissensorganisatorischer Expertise bei der Entwicklung von Records Management Systemen auf organisatorischer und inhaltlicher Ebene ableiten.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.339-354
  8. Gennis, M.: Schriftgutverwaltung und Langzeitarchivierung : Records Management (k)ein Thema an informationswissenschaftlichen Ausbildungsstätten in Deutschland? (2009) 0.04
    0.036794793 = product of:
      0.085854515 = sum of:
        0.03970369 = weight(_text_:und in 3129) [ClassicSimilarity], result of:
          0.03970369 = score(doc=3129,freq=8.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.39180204 = fieldWeight in 3129, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3129)
        0.012951453 = weight(_text_:in in 3129) [ClassicSimilarity], result of:
          0.012951453 = score(doc=3129,freq=6.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.2082456 = fieldWeight in 3129, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0625 = fieldNorm(doc=3129)
        0.033199377 = weight(_text_:den in 3129) [ClassicSimilarity], result of:
          0.033199377 = score(doc=3129,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.25333852 = fieldWeight in 3129, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=3129)
      0.42857143 = coord(3/7)
    
    Abstract
    Da bei der Umsetzung einer digitalen Schriftgutverwaltung Fragen der Langzeitarchivierung von Beginn an beantwortet werden müssen, besteht zwischen diesen beiden Themenfeldern ein enger Zusammenhang. Insbesondere für die Langverfügbarkeit wissenschaftlicher Daten ist eine durchdachte Schriftgutverwaltung nicht verzichtbar. Informationswissenschaftliche Ausbildungseinrichtungen in Deutschland sollten sich daher diesem Thema zuwenden und dabei von den Erfahrungen und Erkenntnissen des Verwaltungswesens profitieren.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.387-392
  9. Süle, G.: ¬Die Entmaterialisierung von Dokumenten in Rundfunkanstalten (2003) 0.04
    0.03663159 = product of:
      0.085473716 = sum of:
        0.0371394 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.0371394 = score(doc=1400,freq=28.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.36649725 = fieldWeight in 1400, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.011216287 = weight(_text_:in in 1400) [ClassicSimilarity], result of:
          0.011216287 = score(doc=1400,freq=18.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18034597 = fieldWeight in 1400, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
        0.03711803 = weight(_text_:den in 1400) [ClassicSimilarity], result of:
          0.03711803 = score(doc=1400,freq=10.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.28324106 = fieldWeight in 1400, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=1400)
      0.42857143 = coord(3/7)
    
    Abstract
    Mit meinem Vortrag möchte ich anknüpfen an einen Vortrag von Hans-Gerhard Stülb, den er auf dem Archivtag 1997 in Ulm gehalten hatte. Die Quintessenz seiner damals vorgetragenen Thesen lautete: Eine Sicherung von Tondokumenten ist dringend nötig. Das Ausgangsmaterial zerfällt und muss deshalb auf neue Tonträger überspielt werden. Die Sicherung ist aber teuer. Alle Magnetbandbestände müssten eigentlich regelmäßig umkopiert werden, so dass im Laufe der Jahre hohe Überspielkosten entstehen, im WDR belaufen sich zur Zeit auf über 4, - DM/Min. Eine Sicherung durch Digitalisierung ist die Lösung, da hierbei ein kostengünstiges und weitgehend verlustfreies Umkopieren möglich ist. Stülb bezeichnete die Tatsache, dass bei der Digitalisierung analoge Tonsignale umgewandelt werden in Bits und Bytes und erst nach einer "datentechnischen Umrechnung" wieder hörbar werden, also nicht mehr unmittelbar greifbar sind, als Entmaterialisierung. 1997 bestand das Digitalisieren im wesentlichen aus dem Überspielen auf CD oder DAT, das Umformatieren von analogen Tonaufzeichnungen in Audiofiles und die Einführung von Langzeitmassenspeichern wurde aber prognostiziert und die digitalen Tonträger nur als ein Zwischenschritt angesehen. Für mich bedeutet heute jedoch "Entmaterialisierung", dass es überhaupt keine Archivmaterialien mehr gibt, was bei der CD oder der DAT immerhin noch der Fall ist, sondern nur noch Datenträger mit Datenfiles, die in einem geschlossenen System, (Audio)Archivspeicher gespeichert und zur Nutzung zur Verfügung gestellt werden. Der Vortrag von Stülb bezog sich ausschließlich auf Tonträger und bei diesen auf die Problematik der "physischen Beschaffenheit". Hier zeichnet sich zwar eine Bestandsgefährdung ab, im Großen und Ganzen ist das Material der Schallarchive aber noch in einem recht guten Zustand. Nun gibt es aber Material in den Rundfunkarchiven, bei dem die Situation noch schwieriger ist als bei den Tonbändern der Schallarchive: Ich meine damit die Bestände der Fernseharchive, bei denen eine Gefährdung des Materials bereits sehr viel konkreter ist. Bei diesen Beständen, es handelt sich um Filme und Videoaufzeichnungen, haben wir wie auch bei den Tonträgerbeständen Probleme mit der physischen Beschaffenheit von Material durch physikalische und chemische Prozesse verschiedenster Art. Darüber hinaus sind die Materialstücke oft nicht unter optimalen Bedingungen sondern quick and dirty produziert, um schnell auf Sendung gehen zu können, und das Trägermaterial wurde nie unter Archiv- sondern unter Produktionsgesichtspunkten ausgesucht. Zu den schlechten Produktionsbedingungen kommen oft noch schlechte Lagerbedingungen und zusätzlich Gefahren für das Material durch seine Nutzung (ein Band wird aus einem klimatisierten Lager in ein auf 50 Grad aufgeheiztes Auto gebracht. Aber der Zerfall ist zur Zeit nicht das größte Problem, u.a. auch, weil die Bestände teilweise noch gar nicht so alt sind, als dass es zu Zerfallserscheinungen kommen kann. Die Hauptproblematik liegt vielmehr in der sog. Obsolescences.
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  10. Kampffmeyer, U.: MoReq und MoReq2 (2009) 0.04
    0.036111463 = product of:
      0.08426008 = sum of:
        0.045957662 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.045957662 = score(doc=3133,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.4535172 = fieldWeight in 3133, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
        0.009252965 = weight(_text_:in in 3133) [ClassicSimilarity], result of:
          0.009252965 = score(doc=3133,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14877784 = fieldWeight in 3133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
        0.029049452 = weight(_text_:den in 3133) [ClassicSimilarity], result of:
          0.029049452 = score(doc=3133,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.2216712 = fieldWeight in 3133, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3133)
      0.42857143 = coord(3/7)
    
    Abstract
    Die Abkürzung MoReq steht für Model Requirements for the Management of Electronic Records. MoReq ist der europäische Standard für das Records Management. Herausgegeben wurde der von der Europäischen Kommission beauftragte und geförderte Standard vom DLM Forum. Seit Februar 2008 ist die Version MoReq2 gültig. MoReq2 umfasst nicht nur die Anforderungen an das Records Management sondern beinhaltet auch ein XML-Schema, einen Katalog mit Testszenarien und Testdaten sowie ein Zertifizierungsverfahren für Records Management Produkte. MoReq2 deckt den gesamten Lebenszyklus von Records von ihrer Entstehung, Nutzung und Verwaltung bis zur Archivierung und Löschung ab. Verschiedene europäische Staaten haben MoReq2 bereits adaptiert und die ersten Records Management Produkte befinden sich in der Zertifizierung.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.355-363
  11. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.03
    0.033275176 = product of:
      0.077642076 = sum of:
        0.035093434 = weight(_text_:und in 5651) [ClassicSimilarity], result of:
          0.035093434 = score(doc=5651,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34630734 = fieldWeight in 5651, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.0066092606 = weight(_text_:in in 5651) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=5651,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 5651, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.03593938 = weight(_text_:den in 5651) [ClassicSimilarity], result of:
          0.03593938 = score(doc=5651,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.274247 = fieldWeight in 5651, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
      0.42857143 = coord(3/7)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
  12. Mummenthey, I.; Kotte, J.; Brüdegam, J.: Schriftgutverwaltung Records Management und Records Preservation : Selbstverständnis des Staatsarchivs Hamburg in einer modernen Verwaltung (2009) 0.03
    0.032360617 = product of:
      0.0755081 = sum of:
        0.039392285 = weight(_text_:und in 3135) [ClassicSimilarity], result of:
          0.039392285 = score(doc=3135,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38872904 = fieldWeight in 3135, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
        0.011216287 = weight(_text_:in in 3135) [ClassicSimilarity], result of:
          0.011216287 = score(doc=3135,freq=8.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18034597 = fieldWeight in 3135, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
        0.024899531 = weight(_text_:den in 3135) [ClassicSimilarity], result of:
          0.024899531 = score(doc=3135,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 3135, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=3135)
      0.42857143 = coord(3/7)
    
    Abstract
    Was hat ein Staatsarchiv mit Schriftgutverwaltung zu tun? Ist Schriftgutverwaltung nur ein altbackener Begriff für das moderne Records Management? Was ist Records Preservation? Und wo ist der Bezug zu Orwells Roman "1984"? Diese Fragen will der Beitrag beantworten. Im ersten Teil beschreibt Irmgard Mummenthey zunächst die Aufgaben des Staatsarchivs der Freien und Hansestadt Hamburg und erläutert Begrifflichkeiten. Sie geht dann auf Records Management als strategische Aufgabe des Staatsarchivs ein und skizziert die Bedeutung sowohl einer vertrauenswürdigen Überlieferung als auch eines Archivs selbst in einem demokratischen Rechtsstaat. Jenny Kotte stellt dann im zweiten Teil die wichtigsten Standards vor. Diese sind maßgebliche Instrumente, um den Stellenwert von Schriftgutverwaltung bzw. Records Management und damit seine Qualität zu sichern. Julia Brüdegam berichtet im dritten Teil, wie das Staatsarchiv seinen gesetzlichen Auftrag, die hamburgische Verwaltung zu beraten, praktisch umsetzt. Da die drei Autorinnen sich in ihrer täglichen Arbeit auf die öffentliche Verwaltung konzentrieren (müssen), liegt dort auch unweigerlich der Schwerpunkt dieses Beitrags.
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.369-382
  13. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.03
    0.032223985 = product of:
      0.07518929 = sum of:
        0.039235655 = weight(_text_:und in 1718) [ClassicSimilarity], result of:
          0.039235655 = score(doc=1718,freq=20.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3871834 = fieldWeight in 1718, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.0066092606 = weight(_text_:in in 1718) [ClassicSimilarity], result of:
          0.0066092606 = score(doc=1718,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.10626988 = fieldWeight in 1718, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
        0.029344378 = weight(_text_:den in 1718) [ClassicSimilarity], result of:
          0.029344378 = score(doc=1718,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 1718, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.42857143 = coord(3/7)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
    Footnote
    Gekürzte Fassung einer Hausarbeit zur Laufbahnprüfung für den höheren Bibliotheksdienst im Frühjahr 2002
  14. Mikro-Univers : 2. Workshop "Digitalisierung, Erschließung, Internetpräsentation und Langzeitarchivierung" (2004) 0.03
    0.03158485 = product of:
      0.073697984 = sum of:
        0.035788424 = weight(_text_:und in 3042) [ClassicSimilarity], result of:
          0.035788424 = score(doc=3042,freq=26.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.3531656 = fieldWeight in 3042, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
        0.00915806 = weight(_text_:in in 3042) [ClassicSimilarity], result of:
          0.00915806 = score(doc=3042,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14725187 = fieldWeight in 3042, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
        0.028751504 = weight(_text_:den in 3042) [ClassicSimilarity], result of:
          0.028751504 = score(doc=3042,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.21939759 = fieldWeight in 3042, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=3042)
      0.42857143 = coord(3/7)
    
    Abstract
    Die Fa. Mikro-Univers GmbH führte am 09.11.2004 in ihren Räumen einen Workshop durch, an dem 34 Bibliothekare und Archivare teilnahmen. Bezogen auf Arbeitsergebnisse aus zwei aktuellen Projekten wurden neue Technologien bei der Digitalisierung und Erschließung vorgestellt und diskutiert. Eine Erweiterung der im Bibliotheksbereich eingesetzten Internetsoftware "Chopin" (www.dilib.info) mit integrierter Bestellfunktion sowie eine Technologie zur Ausgabe von Images auf Mikrofilm wurden präsentiert. Im Modellprojekt "Berlinisch" wird der Bestand der Zentral- und Landesbibliothek Berlin zum Berliner Dialekt aufbereitet. Anders als bei vielen Digitalisierungsprojekten sollen neben der Webpräsentation der Images auch Volltexte erzeugt und die digitalisierten Images für "Print an demand" (PoD) genutzt werden. Die Nutzung der Images für die Druckvorstufe bringt hohe Anforderungen: Beim Scannen mit einem Buchscanner wurde als Auflösung 600 dpi bitonal gewählt. Einige Images, die in Graustufen 300 dpi gescannt werden mussten, wurden auf 600 dpi bitonal umgerechnet. Anschließend ist eine - weitgehend automatisierte - Imagebearbeitung erforderlich um Flecken zu entfernen, den Satzspiegel gerade zu rücken und zu zentrieren sowie einen definierten Druckrand hinzuzufügen. Ausgabeformat für PoD sind PDF-Dateien. Mit der Software "docWORKS" erfolgte die Imageanalyse, die automatische Strukturierung und die Erzeugung eines Volltextes. Die einzelnen Strukturelemente wie Titelblatt, Inhaltsverzeichnis, Kapitelüberschriften und Abbildungen wurden mit dem Volltext als XML-Dateien abgelegt. Die Besonderheit besteht bei diesem Projekt darin, dass ein Großteil der Volltexte aus Frakturschriften erzeugt wurde. Dabei ist das Auslesen von Images, in denen Frakturschriften - bzw. Antiqua- und Frakturschriften gemeinsam - vorkommen, mit hoher Genauigkeit erreicht worden. Für die Darstellung und Suche im Internet sind diese Daten und Images in die Internetsoftware "Chopin" integriert worden. Damit ist sowohl ein Zugriff auf den Bestand über die automatisch erzeugten Strukturelemente als auch über eine Volltextsuche möglich. Der Benutzer kann dann über eine integrierte Bestellfunktion die gewünschten Titel (Bücher oder Teile von Büchern) als PDF-Datei herunterladen oder als Ausdruck über PoD bestellen. Die PDF-Dateien enthalten die komprimierten Images in 300 dpi, aber auch die Strukturinformationen aus "docWorks" und in einem unsichtbaren Layer den recherchierbaren Volltext. Die PDF-Dateien sind auch bei ganzen Büchern meist nur wenige MByte groß.
  15. Altenhofen, C.; Stanisic-Petrovic, M.; Kieninger, T.; Hofmann, H.R.: Werkzeugeinsatz im Umfeld der Dokumentenverwaltung (2003) 0.03
    0.031550936 = product of:
      0.07361885 = sum of:
        0.0328269 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.0328269 = score(doc=1824,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.32394084 = fieldWeight in 1824, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.011447575 = weight(_text_:in in 1824) [ClassicSimilarity], result of:
          0.011447575 = score(doc=1824,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.18406484 = fieldWeight in 1824, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
        0.029344378 = weight(_text_:den in 1824) [ClassicSimilarity], result of:
          0.029344378 = score(doc=1824,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.22392172 = fieldWeight in 1824, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1824)
      0.42857143 = coord(3/7)
    
    Abstract
    Die Menge der täglich zu bewältigenden Papierflut wächst immer noch an. Weltweit werden täglich 200 Millionen Seiten Papier in Ordnern abgeheftet und mehr als 25o km neue Aktenordner angelegt. Diese gigantische Menge an papiergebundener Information wird noch durch die stark zunehmende Zahl elektronischer Dokumente ergänzt, so dass die in den letzten Jahren getätigten Aussagen, dass sich die zu verarbeitende Informationsmenge im Schnitt alle 2 bis 6 Jahre verdoppelt, als durchaus realistisch einzuschätzen sind. Diese Flut von Informationen erschwert in Unternehmen die bedarfsgerechte Verteilung und gezielte Suche nach wirklich relevanten Aussagen und Inhalten. Das Institut für Arbeitswissenschaft und Technologiemanagement (IAT) der Universität Stuttgart (Kooperationspartner des Fraunhofer IAO), das Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), und die Océ Document Technologies GmbH haben eine Studie zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" publiziert. In der Studie werden die Ergebnisse, die im Rahmen des Verbundprojekts "Adaptive READ" (www.adaptive-read.de) in zwei durchgeführten Befragungen zum "Werkzeugeinsatz im Umfeld der Dokumentenverwaltung" erzielt wurden, dargestellt. Die Studie beleuchtet sowohl das Umfeld wie auch den aktuellen Einsatz von Werkzeugen zur Dokumentenverwaltung, behandelt aber auch Herausforderungen und Probleme bei der Systemeinführung. In diesem Beitrag werden Ergebnisse der Studie auszugsweise dargestellt, wobei auf die Ergebnisse der zweiten Befragung fokussiert wird.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.5, S.281-288
  16. Behling, U.: Vom Medienarchiv zur Researchabteilung (2001) 0.03
    0.030952686 = product of:
      0.07222293 = sum of:
        0.039392285 = weight(_text_:und in 5864) [ClassicSimilarity], result of:
          0.039392285 = score(doc=5864,freq=14.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.38872904 = fieldWeight in 5864, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.007931113 = weight(_text_:in in 5864) [ClassicSimilarity], result of:
          0.007931113 = score(doc=5864,freq=4.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.12752387 = fieldWeight in 5864, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
        0.024899531 = weight(_text_:den in 5864) [ClassicSimilarity], result of:
          0.024899531 = score(doc=5864,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 5864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=5864)
      0.42857143 = coord(3/7)
    
    Abstract
    Vor 20 Jahren war es für »bewährte« Mitarbeiter fast noch eine Strafe: Ab ins Archiv! Inzwischen haben sich die Anforderungen an Pressearchive und damit auch an die Mitarbeiter völlig gewandelt. Eine Konsequenz dieser Entwicklung stellt die organisatorische Trennung von Datenbankproduktion (seit über zwei Jahren bei Genios) und Dokumentation dar. Das ehemalige Pressearchiv entwickelt sich weiter in Richtung einer Researchabteilung, die zunehmend komplexere Informationsprodukte wie Tabellen Grafiken, Ranglisten usw. für die verschiedenen Verlagsobjekte druckfertig zur Verfügung stellt. Die Bedeutung der dokumentarischen Ausbildung von Mitarbeitern tritt damit gegenüber volks- und betriebswirtschaftlichen Kenntnissen zunehmend in den Hintergrund. Der eigene Informationsinput besteht nach wie vor aus einer konventionellen Pressedokumentation, eigener Nicht-Pressedatenbanken sowie einem CD-ROM-Angebot für die gesamte Verlagsgruppe Handelsblatt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.027342957 = product of:
      0.06380023 = sum of:
        0.033292558 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.033292558 = score(doc=6386,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.0056081433 = weight(_text_:in in 6386) [ClassicSimilarity], result of:
          0.0056081433 = score(doc=6386,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.09017298 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.024899531 = weight(_text_:den in 6386) [ClassicSimilarity], result of:
          0.024899531 = score(doc=6386,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.19000389 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.42857143 = coord(3/7)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  18. Rehbaum, A.: Bildarchivierung mit dem Dokumentenmanagementsystem Dr.Doc (2000) 0.03
    0.026667004 = product of:
      0.06222301 = sum of:
        0.024313446 = weight(_text_:und in 5577) [ClassicSimilarity], result of:
          0.024313446 = score(doc=5577,freq=12.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.23992877 = fieldWeight in 5577, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
        0.00915806 = weight(_text_:in in 5577) [ClassicSimilarity], result of:
          0.00915806 = score(doc=5577,freq=12.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.14725187 = fieldWeight in 5577, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
        0.028751504 = weight(_text_:den in 5577) [ClassicSimilarity], result of:
          0.028751504 = score(doc=5577,freq=6.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.21939759 = fieldWeight in 5577, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.03125 = fieldNorm(doc=5577)
      0.42857143 = coord(3/7)
    
    Abstract
    Das Forschungsinstitut der Zementindustrie plant noch für das Jahr 2000 die Einführung eines Dokumentenmanagementsystems (DMS). Nach den Präsentationen und Workshops verschiedener Firmen kamen zwei Kandidaten in die engere Wahl. Einer davon war Dr.Doc Version 6.0 von der Firma Dr.Pfaff (seit 1984 im Geschäft). In der ersten Phase werden Workflow im Rechnungswesen oder Personalbereich im Vordergrund stehen. Letztendlich wurde aber auch bei der Besichtigung mehrere Institutionen, die in etwa vor den gleichen Problemen stehen, klar, dass man ein solches Projekt in kleinen, überschaubaren Schritten angehen muß und nicht alle im Pflichtenheft festgelegten Wünsche gleichzeitig realisierbar sind. Nicht nur im Hinterkopf steht jedoch der Einsatz eines DMS auch im Archivbereich, sprich: Altaktenerfassung und Bildarchiv. Die Firma stellte für eine erste interne Testphase eine Einzelplatzversion nach unseren Bedürfnissen für eine Probedatenbank Bildarchiv zur Verfügung. Prinzipiell verwaltet das System aber auch Videos, Barcode-Erkennung oder Papiervorlagen mit OCR-Bearbeitung, ganz abgesehen von den Ergebnissen normaler Textverarbeitung. Der Test lief zunächst über vier Wochen und umfaßte 100 Bilder. Anschließend wurden mehrere Workstations vernetzt und in einer Testgruppe verschiedene Anwendungsmöglichkeiten des DMS weitere vier Wochen gleichzeitig mit dem anderen Konkurrenten getestet. Das Testmaterial lag als Papierabzüge oder bereits digitalisiert vor. Als Scanner diente ein HP ScanJet ADF mit der Scanner-Software Hammerlab ScanDo. Zur Geräteausstattung gehörte ansonsten eine Workstation unter Windows NT. Die Speicherkapazität sollte mindestens 8 MB-RAM betragen. Der Archiv-Server sollte eine Speicherkapazität von 16-64 MB aufweisen. Das DMS Dr.Doc ist ein leistungsfähiges Verwaltungssystem. Der Nutzer kann in der gewohnten Programmumgebung weiterarbeiten, während das System die anschließende Archivierung, Versionskontrolle oder Weiterleitung übernimmt. Zum Zeitpunkt der Fertigstellung bekommen die Dokumente einen Link, der beim erneuten Programmaufruf automatisch das dazugehörige Programm öffnet, so dass der Nutzer weder Pfad noch Programmnamen wissen muss. Die Client-Server Struktur dient dem schnellen Zugriff auf die Archive und gewährleistet eine erhöhte Datensicherheit
  19. Kersten, M.: Digitale Fotoalben : Mit Dateibetrachtern und Multimediadatenbanken den Überblick behalten (2000) 0.03
    0.026097452 = product of:
      0.09134108 = sum of:
        0.044390075 = weight(_text_:und in 5319) [ClassicSimilarity], result of:
          0.044390075 = score(doc=5319,freq=10.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.438048 = fieldWeight in 5319, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5319)
        0.046951007 = weight(_text_:den in 5319) [ClassicSimilarity], result of:
          0.046951007 = score(doc=5319,freq=4.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.35827476 = fieldWeight in 5319, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0625 = fieldNorm(doc=5319)
      0.2857143 = coord(2/7)
    
    Abstract
    Andreas erste Schritte, Fabians Einschulung, Helgas letzter Mallorca-Urlaub und Werners Hochzeit, fast immer ist die Kamera zur Stelle und immer öfter ist es eine Digitalkamera. Manchmal werden die Bilder später eingescannt und das Fotolabor presst sie direkt auf CD-ROM. Sogar übers Internet kann man sich neuerdings Fotos 'entwickeln' und zukommen lassen. Diese digitale Bilderflut würde unweigerlich ins Chaos führen, gäbe es nicht preiswerte Bilddatenbanken für den heimischen PC
  20. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.03
    0.025935642 = product of:
      0.0605165 = sum of:
        0.035093434 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.035093434 = score(doc=5863,freq=16.0), product of:
            0.1013361 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.045721713 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.004673453 = weight(_text_:in in 5863) [ClassicSimilarity], result of:
          0.004673453 = score(doc=5863,freq=2.0), product of:
            0.062193166 = queryWeight, product of:
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.045721713 = queryNorm
            0.07514416 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.3602545 = idf(docFreq=30841, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.020749612 = weight(_text_:den in 5863) [ClassicSimilarity], result of:
          0.020749612 = score(doc=5863,freq=2.0), product of:
            0.13104749 = queryWeight, product of:
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.045721713 = queryNorm
            0.15833658 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.866198 = idf(docFreq=6840, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.42857143 = coord(3/7)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt