Search (40 results, page 1 of 2)

  • × language_ss:"d"
  • × theme_ss:"Dokumentenmanagement"
  • × year_i:[2000 TO 2010}
  1. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.02
    0.017428454 = product of:
      0.04879967 = sum of:
        0.01928249 = weight(_text_:wide in 1833) [ClassicSimilarity], result of:
          0.01928249 = score(doc=1833,freq=2.0), product of:
            0.1312982 = queryWeight, product of:
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.029633347 = queryNorm
            0.14686027 = fieldWeight in 1833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.4307585 = idf(docFreq=1430, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.010461091 = weight(_text_:web in 1833) [ClassicSimilarity], result of:
          0.010461091 = score(doc=1833,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.108171105 = fieldWeight in 1833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.0060537956 = weight(_text_:information in 1833) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=1833,freq=8.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 1833, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.008987385 = weight(_text_:retrieval in 1833) [ClassicSimilarity], result of:
          0.008987385 = score(doc=1833,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.10026272 = fieldWeight in 1833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1833)
        0.0040149093 = product of:
          0.012044728 = sum of:
            0.012044728 = weight(_text_:22 in 1833) [ClassicSimilarity], result of:
              0.012044728 = score(doc=1833,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.116070345 = fieldWeight in 1833, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0234375 = fieldNorm(doc=1833)
          0.33333334 = coord(1/3)
      0.35714287 = coord(5/14)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    Date
    11. 5.2008 19:49:22
    LCSH
    Information technology / Management / Congresses
    Subject
    Information technology / Management / Congresses
  2. Mateika, O,: Feasibility-Studie zur Eignung der Pressedatenbank Archimedes zum Einsatz in der Pressedokumentation des Norddeutschen Rundfunks (2004) 0.02
    0.017042106 = product of:
      0.07952983 = sum of:
        0.044148326 = weight(_text_:bibliothek in 3712) [ClassicSimilarity], result of:
          0.044148326 = score(doc=3712,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 3712, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
        0.011415146 = weight(_text_:information in 3712) [ClassicSimilarity], result of:
          0.011415146 = score(doc=3712,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 3712, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
        0.023966359 = weight(_text_:retrieval in 3712) [ClassicSimilarity], result of:
          0.023966359 = score(doc=3712,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.26736724 = fieldWeight in 3712, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
      0.21428572 = coord(3/14)
    
    Abstract
    Das Datenbanksystem Planet, derzeit eingesetzt als Information Retrieval System in Pressearchiven innerhalb des SAD-Verbunds der ARD, soll durch ein mindestens gleichwertiges System abgelöst werden. Archimedes, derzeit eingesetzt im Dokumentationsbereich des Westdeutschen Rundfunks Köln, ist eine mögliche Alternative. Ob es die Vorgaben und Anforderungen erfüllt, wird mit Hilfe einer Feasibility-Studie geprüft, notwendige Funktionalitäten und strategisch-qualitative Anforderungen bewertet.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  3. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.01
    0.009779122 = product of:
      0.06845385 = sum of:
        0.063409016 = weight(_text_:elektronische in 5651) [ClassicSimilarity], result of:
          0.063409016 = score(doc=5651,freq=6.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.45248374 = fieldWeight in 5651, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
        0.0050448296 = weight(_text_:information in 5651) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=5651,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 5651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
      0.14285715 = coord(2/14)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
    Form
    Elektronische Dokumente
  4. Krieg, K.: Weniger ODER - mehr UND : aktuelle Entwicklung im strategischen Dokumentenmanagement aus informationswissenschaftlicher Sicht (2004) 0.01
    0.007937639 = product of:
      0.055563472 = sum of:
        0.044148326 = weight(_text_:bibliothek in 3716) [ClassicSimilarity], result of:
          0.044148326 = score(doc=3716,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 3716, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
        0.011415146 = weight(_text_:information in 3716) [ClassicSimilarity], result of:
          0.011415146 = score(doc=3716,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.21943474 = fieldWeight in 3716, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3716)
      0.14285715 = coord(2/14)
    
    Abstract
    Mit der Digitalisierung von Dokumenten und damit verbundenen Integrationsbestrebungen von Abläufen und Funktionen ändern sich die Anforderungen an das Dokumentenmanagement, das in Enterprise Content Management (ECM) aufgeht. Untersucht wird das Dokumentenmanagement vor allem aus informationswissenschaftlicher Sicht: Methoden der Informationsgewinnung, Informationsverwaltung in Informationssystemen und Information als Produktionsfaktor. Ein Engpaß ist die Dokumentenerschließung, weil arbeitsintensiv und deshalb kostspielig. Professionelles Dokumentenmanagement erfordert jedoch strategische, zukunftssichernde Entscheidungen.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  5. Frank, C.: Entwicklung und Umsetzung eines Archivkonzeptes für ein integriertes Akten- und Medienarchiv für den Landesverband Hamburg e.V. des Deutschen Roten Kreuzes (2004) 0.01
    0.007460008 = product of:
      0.052220054 = sum of:
        0.044148326 = weight(_text_:bibliothek in 2999) [ClassicSimilarity], result of:
          0.044148326 = score(doc=2999,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 2999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=2999)
        0.008071727 = weight(_text_:information in 2999) [ClassicSimilarity], result of:
          0.008071727 = score(doc=2999,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1551638 = fieldWeight in 2999, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=2999)
      0.14285715 = coord(2/14)
    
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  6. Schmidtke, R.: Auswahl und Implementierung eines Onlinesystems zur Digitalisierung und Umstrukturierung des firmeninternen Branchenarchivs einer Unternehmensberatung für Mergers & Akquisitions (2004) 0.01
    0.007460008 = product of:
      0.052220054 = sum of:
        0.044148326 = weight(_text_:bibliothek in 3715) [ClassicSimilarity], result of:
          0.044148326 = score(doc=3715,freq=2.0), product of:
            0.121660605 = queryWeight, product of:
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.029633347 = queryNorm
            0.36288103 = fieldWeight in 3715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.1055303 = idf(docFreq=1980, maxDocs=44218)
              0.0625 = fieldNorm(doc=3715)
        0.008071727 = weight(_text_:information in 3715) [ClassicSimilarity], result of:
          0.008071727 = score(doc=3715,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.1551638 = fieldWeight in 3715, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0625 = fieldNorm(doc=3715)
      0.14285715 = coord(2/14)
    
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  7. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.007154687 = product of:
      0.050082806 = sum of:
        0.0060537956 = weight(_text_:information in 6386) [ClassicSimilarity], result of:
          0.0060537956 = score(doc=6386,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.116372846 = fieldWeight in 6386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
        0.044029012 = weight(_text_:retrieval in 6386) [ClassicSimilarity], result of:
          0.044029012 = score(doc=6386,freq=12.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.49118498 = fieldWeight in 6386, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.14285715 = coord(2/14)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  8. Dahmen, E.: Klassifikation als Ordnundssystem im elektronischen Pressearchiv (2003) 0.01
    0.0066816867 = product of:
      0.046771806 = sum of:
        0.041418593 = weight(_text_:elektronische in 1513) [ClassicSimilarity], result of:
          0.041418593 = score(doc=1513,freq=4.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.29556113 = fieldWeight in 1513, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.03125 = fieldNorm(doc=1513)
        0.0053532133 = product of:
          0.016059639 = sum of:
            0.016059639 = weight(_text_:22 in 1513) [ClassicSimilarity], result of:
              0.016059639 = score(doc=1513,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.15476047 = fieldWeight in 1513, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=1513)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Abstract
    Elektronische Pressearchive bieten einen schnellen und bequemen Zugriff auf einzelne Presseartikel. Während die ersten elektronischen Pressearchive noch mit Referenzdatensätzen arbeiteten und den gesamten Text nur als Bilddatei ablegten, ermöglichen verbesserte Speicherkapazitäten heute die Archivierung vollständiger Texte, mit Hilfe einer guten OCR-Erkennung sind zudem alle Wörter des Textes im Volltext recherchierbar. Der punktuelle Zugriff auf ein spezielles Dokument ist also prinzipiell bereits ohne die Nutzung beschreibender Daten möglich. Je spezifischer, eindeutiger und seltener der gesuchte Begriff ist, desto schneller kann ein passendes Dokument gefunden werden - oft war dies in einer konventionellen Sammlung gerade nicht der Fall, hier mußte man manchmal mit Geduld die "Stecknadel im Heuhaufen" suchen. Sog. "Volltextarchive" finden sich in großer Zahl im Internet, jeder kann dort über die Eingabe eines oder mehrerer Wörter nach Presseartikeln suchen, wird aber schnell feststellen, daß die auf diesem Weg erzielte Treffermenge nicht zu vergleichen ist mit der Anordnung von Presseausschnitten, die mit Hilfe einer Klassifikation in eine Aufstellungssystematik gebracht wurden. Diese Zugriffsmöglichkeit wird in professionell arbeitenden Archiven verständlicherweise als unzureichend empfunden, und aus diesem Grund werden ausgewählte Presseartikel weiterhin inhaltlich erschlossen, es werden also zusätzliche rechercherelevante Daten produziert. Diese beim Indexat erstellten Metadaten setzen sich zusammen aus Formaldaten, evtl. künstlichen Ordnungsmerkmalen, Sachbegriffen und natürlich Eigennamen wie z.B. Namen von Personen, Körperschaften, Ländern, Sendetiteln und anderen Individualbegriffen. Präzise Begriffe mit eindeutiger Benennung und Eigennamen können im elektronischen Archiv hervorragend recherchiert werden, denn in einer elektronischen Datenbank funktioniert die Suche technisch ohnehin nur nach eindeutigen Schriftzeichen, also nach geordneten Buchstaben und Zahlen. Diese "rechnerimmanente" Technik hat die Vorstellung, alles über die bloße Eingabe von Wörtern zu suchen, möglicherweise noch voran getrieben. Auch die Popularisierung von Suchmaschinen im Internet hat dazu beigetragen, diese Suchmöglichkeit für die einzig wahre zu erachten. Wie steht es aber mit der thematischen Suche? Systematischer und alphabetischer Zugriff ist ja keine Entweder-Oder-Frage: es kommt auf die Suchanfrage an! Wir postulieren also: beides sollte möglich sein.
    Die bis heute gültige Grundkonzeption einer Klassifikation für die elektronische Pressedatenbank im WDR wurde seit 1989 von Klaus Leesch und Mitarbeitern entwickelt. Die inhaltliche Ausgestaltung und Strukturierung erfolgte durch verschiedene Mitarbeiter des Pressearchivs. Mit Beginn der Digitalisierung 1993 kam die erste Klassifikation ("PARIS-Klassifikation") zum Einsatz, sie wurde in den folgenden Jahren von Dr. Bernhard Brandhofer mehrmals überarbeitet und hin zu einer archivübergreifenden Klassifikation ("D&A-Klassifikation") erweitert. Seit August 1999 ist diese Klassifikation die Grundlage der inhaltlichen Erschließung für die kooperierenden ARD-Pressearchive. Die letzte Überarbeitung fand 2000/2001 in der AG Erschließung des PAN (Presse-Archiv-Netzwerk der ARD) in Zusammenarbeit von Mitarbeitern des NDR, SWR und WDR statt und kommt ab Mai 2001 zum Einsatz (PAN-Klassifikation).
    Date
    28. 4.2003 13:35:22
  9. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.005505548 = product of:
      0.038538832 = sum of:
        0.0050448296 = weight(_text_:information in 5863) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=5863,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 5863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
        0.033494003 = weight(_text_:retrieval in 5863) [ClassicSimilarity], result of:
          0.033494003 = score(doc=5863,freq=10.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.37365708 = fieldWeight in 5863, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.14285715 = coord(2/14)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  10. Ebrecht, K.: ¬Das Archivdatenbanksystem ARCHIMEDES des WDR (2002) 0.00
    0.0026149438 = product of:
      0.03660921 = sum of:
        0.03660921 = weight(_text_:elektronische in 1718) [ClassicSimilarity], result of:
          0.03660921 = score(doc=1718,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.2612416 = fieldWeight in 1718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1718)
      0.071428575 = coord(1/14)
    
    Abstract
    Die Archive des Westdeutschen Rundfunks archivieren seit 1999 die vom WDR selbst produzierten Fernseh- und Hörfunk-Sendungen sowie die zur Produktion dieser Sendungen benötigten Tonträger, Agenturmeldungen und Printmedien auf der Datenbankplattform ARCHIMEDES. Gegenüber einem Archivsystem von der Stange bietet diese vom WDR entwickelte Lösung (ORACLE-Datenbanken unter einem SAPSystem) den Vorteil, dass die beteiligten Archive Einfluss auf deren Gestaltung nehmen konnten. Unter der gemeinsamen Plattform ARCHIMEDES sind sowohl Volltext- als auch Referenzdatenbanken zusammengefasst, die dem Nachweis von Fernseh- und Hörfunksendungen, Geräuschen, Musikstücken, Noten, Gedenktagen, Agenturmeldungen, Zeitungsartikeln und Monografien dienen. Da die Forderung an Bibliotheken, Non-Book-Materialien und elektronische Volltexte in ihr Medienangebot einzubeziehen, immer lauter wird, kann das Datenbanksystem des WDR als Modell für das Management und die Präsentation verschiedener Medien unter einer Oberfläche dienen. ARCHIMEDES zielt darauf, früher nebeneinander bestehende Datenbanken und Kataloge in einem System zusammenzufassen und mit einer Klassifikation zu erschließen. Unter einer einheitlichen Suchoberfläche sind die Datenbanken AUDIO-GERÄUSCHE, AUDIO-MUSIK, AUDIO-WORT, BUCH, NOTEN, PRESSE, STICHTAG, TICKER und VIDEO zugänglich. Dabei handelt es sich zum Teil um Volltext- und zum Teil um Referenzdatenbanken. Trotz der Heterogenität der darin verzeichneten Daten zeichnen sich die ARCHIMEDES-Datenbanken durch eine einheitliche Suchoberfläche aus, wodurch eine bequeme Recherche möglich wird.
  11. Fuchs, C.: Entwurf einer einheitlichen und formalisierbaren Beschreibung von Dokumenten-Management-Systemen (DMS) auf der Basis einer vergleichenden Untersuchung bestehender DMS (2001) 0.00
    0.0026149438 = product of:
      0.03660921 = sum of:
        0.03660921 = weight(_text_:elektronische in 802) [ClassicSimilarity], result of:
          0.03660921 = score(doc=802,freq=2.0), product of:
            0.14013545 = queryWeight, product of:
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.029633347 = queryNorm
            0.2612416 = fieldWeight in 802, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.728978 = idf(docFreq=1061, maxDocs=44218)
              0.0390625 = fieldNorm(doc=802)
      0.071428575 = coord(1/14)
    
    Abstract
    Seitdem die Menschheit Informationen für eine dauerhafte Aufbewahrung aufzeichnete, mussten Wege gefunden werden, bei Bedarf diese Informationen wieder aufzufinden. Solange für die Aufzeichnungen noch kein Papier zur Verfügung stand, hielt sich der dabei zu treibende Aufwand in recht überschaubaren Grenzen. Mit Aufkommen des Papiers und seiner massenhaften Produktion, insbesondere im Zusammenhang mit der industriellen Entwicklung des 19. Jahrhunderts, ergab sich ein sprunghafter Anstieg der zu handhabenden Dokumente. Das Wiederauffinden und der schnelle Zugriff gestalteten sich mit den damals üblichen Organisationsmitteln wie Handablage, Aktenplan und Kartei zunehmend schwieriger. Mit Hilfe von Mikroverfilmung versuchte man vor der Einführung der elektronischen Datenverarbeitung die wachsende Informationsflut besser zu beherrschen. Das Vordringen des Computers in der Bürotätigkeit erhöhte nochmals den Umfang zu handhabender Dokumente, ergab aber auch die Möglichkeit, neue Wege bei der Arbeit mit Dokumenten zu beschreiten. Die Fähigkeit elektronische Informationen in großem Umfang zu speichern, führte zur Erarbeitung von Methoden zur computergestützten Handhabung großer Dokumentenmengen, zu dem, was wir heute als Dokumenten-Management-Systeme (DMS) bezeichnen. Ziel der Arbeit ist es, aus einer vergleichenden Untersuchung bestehender DMS eine einheitliche formalisierbare Beschreibung der Eigenschaften von DMS abzuleiten. Die einheitliche formalisierbare Beschreibung soll auf bestehende DMS angewendet werden, um deren spezifische Eigenschaften in einheitlicher Form zu erfassen. Auf der Basis der einheitlich erfassten Systemeigenschaften ist eine vergleichende Auswertung wichtiger DMS vorzunehmen. Ausgehend von einer Analyse der Systemeigenschaften wichtiger DMS besteht die Aufgabe, einen Anforderungskatalog für moderne DMS abzuleiten. Die Untersuchung soll Aussagen über die Unterstützung von HTML- und XMLDokumenten enthalten.
  12. Krüger, J.D.: Kostenlos und gut : Web-Content-Management-Systeme im Überblick (2003) 0.00
    0.002490736 = product of:
      0.034870304 = sum of:
        0.034870304 = weight(_text_:web in 1726) [ClassicSimilarity], result of:
          0.034870304 = score(doc=1726,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.36057037 = fieldWeight in 1726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.078125 = fieldNorm(doc=1726)
      0.071428575 = coord(1/14)
    
  13. Ehrmann, S.: ¬Die Nadel im Bytehaufen : Finden statt suchen: Text Retrieval, Multimediadatenbanken, Dokumentenmanagement (2000) 0.00
    0.0021398535 = product of:
      0.029957948 = sum of:
        0.029957948 = weight(_text_:retrieval in 5317) [ClassicSimilarity], result of:
          0.029957948 = score(doc=5317,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.33420905 = fieldWeight in 5317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=5317)
      0.071428575 = coord(1/14)
    
  14. Trinkwalder, A.: Wortdetektive : Volltext-Suchmaschinen für Festplatte und Intranet (2000) 0.00
    0.0021398535 = product of:
      0.029957948 = sum of:
        0.029957948 = weight(_text_:retrieval in 5318) [ClassicSimilarity], result of:
          0.029957948 = score(doc=5318,freq=2.0), product of:
            0.08963835 = queryWeight, product of:
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.029633347 = queryNorm
            0.33420905 = fieldWeight in 5318, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.024915 = idf(docFreq=5836, maxDocs=44218)
              0.078125 = fieldNorm(doc=5318)
      0.071428575 = coord(1/14)
    
    Abstract
    Oft sorgt die eigene Unordentlichkeit dafür, dass wichtige Texte unauffindbar sind, manchmal lässt sich aber auch einfach die schiere Menge nicht bändigen und vernünftig sortieren. Text-Retrieval-Systeme durchforsten das Dickicht und versprechen den schnellen Weg zu wertvollen Informationen
  15. Dalipi, B.: Dokumenten-Management und Verwendung von Metadaten bei einem Energieversorgungsunternehmen (2008) 0.00
    0.0019925889 = product of:
      0.027896244 = sum of:
        0.027896244 = weight(_text_:web in 3405) [ClassicSimilarity], result of:
          0.027896244 = score(doc=3405,freq=2.0), product of:
            0.09670874 = queryWeight, product of:
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.029633347 = queryNorm
            0.2884563 = fieldWeight in 3405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.2635105 = idf(docFreq=4597, maxDocs=44218)
              0.0625 = fieldNorm(doc=3405)
      0.071428575 = coord(1/14)
    
    Abstract
    Die vorliegende Arbeit befasst sich im ersten Teil mit den theoretischen Grundlagen, Aufgaben und Funktionen eines Dokumentenmanagement-Systems. In diesem Zusammenhang erklärt werden auch Metadaten, Indexierung, Thesaurus und die bekanntesten Klassifikationssysteme. Erwähnt werden auch das Semantic Web und dessen Technologien. Die Schritte der Realisierung einer SQL-Datenbank, in welcher die Metadaten abgebildet werden, werden in den praktischen Teil der Arbeit näher beschrieben.
  16. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.00
    0.001676621 = product of:
      0.011736346 = sum of:
        0.0050448296 = weight(_text_:information in 3220) [ClassicSimilarity], result of:
          0.0050448296 = score(doc=3220,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.09697737 = fieldWeight in 3220, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
        0.0066915164 = product of:
          0.020074548 = sum of:
            0.020074548 = weight(_text_:22 in 3220) [ClassicSimilarity], result of:
              0.020074548 = score(doc=3220,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.19345059 = fieldWeight in 3220, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.0390625 = fieldNorm(doc=3220)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    6.12.2009 17:22:17
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.8, S.443-446
  17. Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001) 0.00
    0.0013412967 = product of:
      0.009389076 = sum of:
        0.0040358636 = weight(_text_:information in 5868) [ClassicSimilarity], result of:
          0.0040358636 = score(doc=5868,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.0775819 = fieldWeight in 5868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.03125 = fieldNorm(doc=5868)
        0.0053532133 = product of:
          0.016059639 = sum of:
            0.016059639 = weight(_text_:22 in 5868) [ClassicSimilarity], result of:
              0.016059639 = score(doc=5868,freq=2.0), product of:
                0.103770934 = queryWeight, product of:
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.029633347 = queryNorm
                0.15476047 = fieldWeight in 5868, product of:
                  1.4142135 = tf(freq=2.0), with freq of:
                    2.0 = termFreq=2.0
                  3.5018296 = idf(docFreq=3622, maxDocs=44218)
                  0.03125 = fieldNorm(doc=5868)
          0.33333334 = coord(1/3)
      0.14285715 = coord(2/14)
    
    Date
    16. 5.2001 12:22:23
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.00
    0.0010192095 = product of:
      0.014268933 = sum of:
        0.014268933 = weight(_text_:information in 3128) [ClassicSimilarity], result of:
          0.014268933 = score(doc=3128,freq=4.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.27429342 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.071428575 = coord(1/14)
    
    Content
    Beitrag in einem Themenheft "Recordsmanagement kein Thema für Information Professionals?"
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.365-368
  19. Fischer, J.: Rezeptpflichtig : Biztalk: XML-Framework zum Dokumentenaustausch (2002) 0.00
    8.64828E-4 = product of:
      0.012107591 = sum of:
        0.012107591 = weight(_text_:information in 848) [ClassicSimilarity], result of:
          0.012107591 = score(doc=848,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23274569 = fieldWeight in 848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=848)
      0.071428575 = coord(1/14)
    
    Theme
    Information Resources Management
  20. Maas, J.: Anforderungsanalyse für den Einsatz eines (semi)automatischen Indexierungsverfahrens in der Textdokumentation des ZDF (2002) 0.00
    8.64828E-4 = product of:
      0.012107591 = sum of:
        0.012107591 = weight(_text_:information in 1785) [ClassicSimilarity], result of:
          0.012107591 = score(doc=1785,freq=2.0), product of:
            0.052020688 = queryWeight, product of:
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.029633347 = queryNorm
            0.23274569 = fieldWeight in 1785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              1.7554779 = idf(docFreq=20772, maxDocs=44218)
              0.09375 = fieldNorm(doc=1785)
      0.071428575 = coord(1/14)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation

Types

  • a 29
  • x 8
  • m 3
  • s 1
  • More… Less…